додому Без рубрики Aplikacja wideo AI budzi obawy dotyczące fałszywych filmów i demokracji

Aplikacja wideo AI budzi obawy dotyczące fałszywych filmów i demokracji

Nowa generacja aplikacji do generowania wideo opartych na sztucznej inteligencji budzi poważne obawy dotyczące rozprzestrzeniania się fałszywych filmów, erozji prywatności w Internecie i samych podstaw zaufania do informacji cyfrowych. Aplikacja OpenAI Sora 2, popularna wśród użytkowników ze względu na możliwość tworzenia krótkich filmów na podstawie podpowiedzi tekstowych, jest doskonałym przykładem tych obaw. Chociaż pierwotnie był przeznaczony do celów rozrywkowych – na przykład królowej Elżbiety II, rapu lub komicznego nagrania dzwonka do drzwi – potencjał nadużyć Sory 2 budzi nieufność ekspertów i organizacji pozarządowych.

Zaletą Sora 2 jest łatwość obsługi. Użytkownicy wprowadzają dowolny scenariusz, jaki sobie wyobrażają, a sztuczna inteligencja generuje krótki film. Jednak ta łatwość wykorzystania wzbudziła obawy, że osoby atakujące mogą wykorzystać ją do tworzenia atrakcyjnych, ale całkowicie fikcyjnych treści. Pomijając banalne żarty, konsekwencje mogą być bardzo groźne: fałszywe filmy wideo wyrażające sprzeciw mogą zaszkodzić reputacji, szerzyć dezinformację, a nawet podżegać do przemocy.

Grupa ochrony konsumentów Public Citizen przewodzi ruchowi przeciwko Sora 2. W liście do dyrektora generalnego OpenAI Sama Altmana wysłanym do Kongresu USA zarzucają firmie, że przy wydawaniu aplikacji przedkłada szybkość nad bezpieczeństwo. Twierdzą, że pośpiech z wprowadzeniem Sory 2 na rynek, napędzany konkurencją, pokazuje „nieodpowiedzialne podejście” do praw użytkowników, prywatności i stabilności demokratycznej.

J.B. Branch, prawnik ds. polityki technologicznej w firmie Public Citizen, podkreśla zagrożenie dla demokracji: „Myślę, że wkraczamy w świat, w którym ludzie nie mogą ufać temu, co widzą. Zaczynamy też dostrzegać strategie w polityce, w których ludzie zapamiętują pierwszy obraz, który się pojawia, pierwszy film, który zostaje upubliczniony”.

Ta obawa nie jest bezpodstawna. Z ostatnich raportów wynika, że ​​Sora 2 była wykorzystywana do tworzenia niepokojących treści, takich jak filmy przedstawiające kobiety krztuszące się na śmierć. Chociaż OpenAI twierdzi, że blokuje nagość, problemy z moderacją treści wykraczają poza materiały wulgarne.

Po powszechnej krytyce firma próbowała ograniczyć szkody. Zgodzili się zakazać nieuprawnionego wykorzystywania znanych postaci, takich jak Martin Luther King Jr. i Bryan Cranston w filmach Sora 2, po apelach ich spadkobierców i związków aktorów. Branch twierdzi jednak, że te środki reaktywne nie wystarczą. Uważa, że ​​OpenAI powinna priorytetowo traktować projektowanie, które zmniejsza potencjalne szkody przed wypuszczeniem produktów na rynek, a nie naprawianie problemów dopiero po publicznym oburzeniu.

Konkretny przykład historii OpenAI z jej flagowym produktem, chatbotem ChatGPT, jeszcze bardziej wzmacnia te obawy. Siedem pozwów złożonych w USA zarzuca, że ​​ChatGPT prowadził użytkowników do samobójstw i szkodliwych halucynacji, pomimo wewnętrznych ostrzeżeń o możliwości manipulacji. Podobieństwa te podkreślają powtarzający się schemat: OpenAI przedwcześnie udostępnia potężne narzędzia AI, narażając je na nadużycia do czasu wprowadzenia solidnych zabezpieczeń.

Debata wokół Sory 2 podkreśla krytyczny moment. W miarę błyskawicznego rozwoju technologii sztucznej inteligencji coraz ważniejsze staje się znalezienie równowagi między innowacjami a odpowiedzialnością etyczną. Jeśli platformy takie jak Sora 2 nie będą dokładnie regulowane i kierowane etycznie, konsekwencje dla jednostek i społeczeństwa mogą być powszechne i głęboko niepokojące.

Exit mobile version