OpenAI verscherpt de controle op Sora’s AI-gegenereerde inhoud

20

OpenAI past zijn nieuwe videogeneratieplatform, Sora, snel aan als reactie op zowel juridische druk als zorgen van gebruikers over misbruik van auteursrechten en gelijkenissen. Slechts enkele dagen na de lancering op uitnodiging, introduceert het bedrijf nieuwe functies die zijn ontworpen om gebruikers meer controle te geven over hoe hun afbeeldingen en stemmen worden gebruikt in door AI gemaakte video’s. Deze stap komt te midden van toenemende kritiek van de entertainmentindustrie en juridische experts, die zich afvragen of OpenAI’s aanvankelijke aanpak van inbreuk op het auteursrecht duurzaam was.

De cameo-functie en de eerste controverse

Met de opvallende functie van Sora, ‘cameo’, kunnen gebruikers video’s van zichzelf uploaden voor opname in door AI gegenereerde scènes. Dit wekte onmiddellijke belangstelling, waarbij early adopters realistische deepfakes creëerden, waaronder een van OpenAI-CEO Sam Altman die valse beweringen deed over rivaliserende AI-modellen. Hoewel het artikel vermakelijk was, riep het kritische vragen op over toestemming, auteursrecht en de mogelijkheid van verkeerde informatie. OpenAI eiste aanvankelijk van auteursrechthouders (zoals filmstudio’s) dat ze zich afmelden voor het gebruik van hun intellectuele eigendom voor AI-training – een standpunt dat juridische experts al snel als onpraktisch afdeden.

“Het auteursrecht is van toepassing op werken vanaf het moment dat ze worden gemaakt”, legt Robert Rosenberg uit, advocaat op het gebied van intellectueel eigendom bij Moses and Singer LLP. “Het was nooit een haalbare aanpak om makers te vragen zich proactief af te melden.” OpenAI draaide dit standpunt snel om en erkende de noodzaak om zich aan te passen aan de gevestigde auteursrechtwetgeving.

Nieuwe beperkingen en watermerken

Het bedrijf introduceert nu een meer gedetailleerde controle. Gebruikers kunnen nu beperkte trefwoorden of scenario’s opgeven waarin hun beeltenis niet kan worden gebruikt, zoals het voorkomen van door AI gegenereerd politiek commentaar met hun gezicht en stem. Bovendien maakt OpenAI het watermerk op door Sora gemaakte video’s beter zichtbaar, met als doel de door AI gegenereerde inhoud duidelijk te identificeren.

Deze wijzigingen zijn een stap in de richting van het beperken van juridische risico’s. Het kernprobleem is het balanceren van het open karakter van het platform met de rechten van makers van inhoud. Bestaande wetten, zoals Sectie 230 van de Communications Decency Act, beschermen sociale-mediaplatforms tegen aansprakelijkheid voor door gebruikers gegenereerde inhoud. Entertainmentgiganten als Disney en Warner Bros. zijn echter al begonnen met het aanklagen van AI-bedrijven wegens het toestaan ​​van ongeoorloofde reproductie van auteursrechtelijk beschermde karakters.

Het bredere juridische landschap

OpenAI is niet de enige die te maken krijgt met uitdagingen op het gebied van auteursrecht. De New York Times en andere uitgevers hebben het bedrijf aangeklaagd wegens illegaal gebruik van bedrijfseigen inhoud in de AI-trainingsgegevens. Ziff Davis, het moederbedrijf van CNET, heeft om soortgelijke redenen ook een rechtszaak aangespannen tegen OpenAI. Deze juridische strijd benadrukt de fundamentele spanning tussen AI-innovatie en intellectuele eigendomsrechten.

De vraag is nu of de nieuwe maatregelen van OpenAI voldoende zullen zijn om zowel individuele makers als grotere entertainmentbedrijven tevreden te stellen. Volgens Rosenberg: “De platforms nemen meer verantwoordelijkheid, maar of deze implementatie aan de verwachtingen zal voldoen valt nog te bezien.”

Deze aanpassingen zijn essentieel voor de toekomst van door AI gegenereerde inhoud. Het voortdurende debat over auteursrecht op AI is niet alleen legaal; het definieert de grenzen van creatieve vrijheid en innovatie in het digitale tijdperk.