OpenAI zwiększa kontrolę nad treściami generowanymi przez sztuczną inteligencję Sora

21

OpenAI szybko dostosowuje swoją nową platformę do generowania wideo, Sora, w odpowiedzi zarówno na naciski prawne, jak i obawy użytkowników dotyczące naruszenia praw autorskich i niewłaściwego wykorzystania podobieństwa. Zaledwie kilka dni po prywatnej premierze firma wprowadza nowe funkcje, które mają zapewnić użytkownikom większą kontrolę nad sposobem wykorzystania ich obrazów i głosów w filmach generowanych przez sztuczną inteligencję. Posunięcie to wynika z rosnącej krytyki ze strony branży rozrywkowej i ekspertów prawnych, którzy kwestionują trwałość oryginalnego podejścia OpenAI do naruszania praw autorskich.

Cameo i początkowe kontrowersje

Cechą charakterystyczną Sory jest funkcja scen, która umożliwia użytkownikom przesyłanie własnych filmów, które następnie można uwzględnić w scenach generowanych przez sztuczną inteligencję. Wywołało to natychmiastowe zainteresowanie, a pierwsi użytkownicy stworzyli realistyczne deepfake, w tym jeden, w którym dyrektor generalny OpenAI Sam Altman składał fałszywe twierdzenia na temat konkurencyjnych modeli sztucznej inteligencji. Choć funkcja ta ma charakter rozrywkowy, wzbudziła poważne pytania dotyczące zgody, praw autorskich i potencjalnej dezinformacji. OpenAI początkowo wymagało od właścicieli praw autorskich (takich jak studia filmowe), aby zaprzestali wykorzystywania swojej własności intelektualnej na potrzeby szkoleń w zakresie sztucznej inteligencji, co prawnicy szybko uznali za niepraktyczne.

„Prawa autorskie istnieją do dzieł w momencie ich powstania” – wyjaśnia Robert Rosenberg, prawnik ds. własności intelektualnej w firmie Moses and Singer LLP. „Wymaganie od twórców rezygnacji z wyprzedzeniem nigdy nie było realnym podejściem”. OpenAI szybko zmieniło swoje stanowisko, uznając konieczność przestrzegania obowiązujących przepisów prawa autorskiego.

Nowe ograniczenia i znaki wodne

Firma wprowadza teraz bardziej precyzyjne ustawienia sterowania. Użytkownicy mogą teraz określić zabronione słowa kluczowe lub scenariusze, w których nie można wykorzystać ich podobieństwa, na przykład uniemożliwiając komentowanie polityczne z wykorzystaniem ich twarzy i głosu. Ponadto OpenAI sprawia, że ​​znak wodny na filmach generowanych przez Sorę jest bardziej widoczny, aby wyraźnie identyfikować treści wygenerowane przez sztuczną inteligencję.

Zmiany te stanowią krok w kierunku ograniczenia ryzyk prawnych. Głównym wyzwaniem jest zachowanie równowagi pomiędzy otwartością platformy a prawami twórców treści. Obecne przepisy, takie jak sekcja 230 ustawy o przyzwoitości komunikacyjnej, chronią sieci społecznościowe przed odpowiedzialnością za treści generowane przez użytkowników. Jednak giganci branży rozrywkowej, tacy jak Disney i Warner Bros., zaczęli już pozywać firmy zajmujące się sztuczną inteligencją za zezwolenie na nieautoryzowane reprodukowanie postaci chronionych prawem autorskim.

Szerszy krajobraz prawny

OpenAI nie jest jedynym, który boryka się z problemami związanymi z prawami autorskimi. The New York Times i inni wydawcy pozwali firmę, oskarżając ją o nielegalne wykorzystywanie zastrzeżonych treści w danych szkoleniowych AI. Ziff Davis, spółka matka CNET, również złożyła pozew przeciwko OpenAI z podobnych powodów. Te spory prawne uwydatniają zasadnicze napięcie między innowacjami w zakresie sztucznej inteligencji a prawami własności intelektualnej.

Pytaniem jest teraz, czy nowe rozwiązania OpenAI wystarczą, aby zadowolić zarówno indywidualnych twórców, jak i duże firmy rozrywkowe. Według Rosenberga „platformy biorą na siebie większą odpowiedzialność, ale nie jest jasne, czy te środki są zgodne z oczekiwaniami”.

Te dostosowania są niezbędne w przypadku przyszłych treści generowanych przez sztuczną inteligencję. Trwająca debata na temat praw autorskich do sztucznej inteligencji to nie tylko kwestia prawna; wyznacza granice wolności twórczej i innowacji w epoce cyfrowej.