Video aplikace AI vyvolává obavy z falešných videí a demokracie

17

Nová generace aplikací pro generování videa s umělou inteligencí vyvolává vážné obavy z šíření falešných videí, narušování online soukromí a samotného základu důvěry v digitální informace. Aplikace Sora 2 od OpenAI, oblíbená mezi uživateli pro svou schopnost vytvářet krátká videa z textových výzev, je ukázkovým příkladem těchto obav. Přestože byl původně určen pro zábavu – vzpomeňte si na královnu Alžbětu II., rap nebo komické záběry domovního zvonku – potenciál zneužití Sora 2 má odborníky a nevládní organizace na pozoru.

Výhodou Sora 2 je snadné použití. Uživatelé zadají jakýkoli scénář, který si představí, a AI vygeneruje krátké video. Tato snadnost zneužití však vyvolala obavy, že by ji útočníci mohli využít k vytvoření přesvědčivého, ale zcela fiktivního obsahu. Ponecháme-li stranou banální vtipy, následky mohou být hluboce hrozivé: nesouhlas s falešnými videi může poškodit pověst, šířit dezinformace nebo dokonce podněcovat k násilí.

Spotřebitelská skupina Public Citizen vede hnutí proti Sora 2. V dopise generálnímu řediteli OpenAI Samu Altmanovi a zaslaném americkému Kongresu společnost obviňují, že při vydávání aplikace upřednostňuje rychlost před bezpečností. Argumentují tím, že spěch Sora 2 se spuštěním, poháněný konkurencí, ukazuje „nezodpovědný postoj“ k uživatelským právům, soukromí a demokratické stabilitě.

J.B. Branch, právník pro technologickou politiku pro Public Citizen, zdůrazňuje hrozbu pro demokracii: “Myslím, že vstupujeme do světa, kde lidé nemohou věřit tomu, co vidí. A v politice začínáme vidět strategie, kde první obrázek, který se objeví, první video, které se dostane na veřejnost, je to, co si lidé pamatují.”

Tato obava není neopodstatněná. Nedávné zprávy ukazují, jak byla Sora 2 použita k vytvoření znepokojivého obsahu, jako jsou videa žen, které se dusí k smrti. Ačkoli OpenAI tvrdí, že blokuje nahotu, její problémy s moderováním obsahu přesahují explicitní materiál.

Společnost se po rozsáhlé kritice snažila škody omezit. Souhlasili se zákazem neoprávněného použití slavných postav, jako jsou Martin Luther King Jr. a Bryan Cranston ve videích Sora 2 po odvolání jejich dědiců a hereckých odborů. Branch však tvrdí, že tato reaktivní opatření nestačí. Věří, že OpenAI by měla upřednostňovat design, který snižuje potenciální škody před uvedením produktů na trh, spíše než řešit problémy až po veřejném pobouření.

Konkrétní příklad historie OpenAI s jejím vlajkovým produktem, chatbotem ChatGPT, tyto obavy dále posiluje. Sedm žalob podaných v USA tvrdí, že ChatGPT vedlo uživatele k sebevraždě a škodlivým halucinacím, a to navzdory interním varováním o možnosti manipulace. Tyto paralely zdůrazňují opakující se vzorec: OpenAI předčasně uvolňuje výkonné nástroje umělé inteligence, takže jsou zranitelné vůči zneužití, dokud nebudou zavedena robustní ochranná opatření.

Debata kolem Sora 2 zdůrazňuje kritický okamžik. Vzhledem k tomu, že technologie umělé inteligence postupují bleskovou rychlostí, je stále důležitější najít rovnováhu mezi inovací a etickou odpovědností. Pokud platformy jako Sora 2 nebudou pečlivě regulovány a eticky vedeny, důsledky pro jednotlivce a společnost by mohly být rozsáhlé a hluboce znepokojivé.