Una nuova ondata di app per la generazione di video basate sull’intelligenza artificiale sta sollevando serie preoccupazioni sulla diffusione dei deepfake, sulla privacy online e sui fondamenti stessi della fiducia nelle informazioni digitali. Sora 2 di OpenAI, una popolare app che consente agli utenti di creare brevi video da messaggi di testo, esemplifica queste ansie. Anche se apparentemente progettato per l’intrattenimento (si pensi al rap della Regina Elisabetta o alle riprese comiche del campanello della porta), il potenziale di uso improprio di Sora 2 sta allarmando esperti e gruppi di difesa.
Il fascino di Sora 2 risiede nella sua semplicità. Gli utenti digitano qualsiasi scenario immaginano e l’intelligenza artificiale genera un breve video. Questa facilità d’uso, tuttavia, alimenta il timore che gli autori malintenzionati possano sfruttarla per creare contenuti convincenti ma del tutto inventati. Al di là dei semplici scherzi, le conseguenze sono profonde: i deepfake non consensuali potrebbero danneggiare la reputazione, diffondere disinformazione o addirittura incitare alla violenza.
Public Citizen, un gruppo di controllo dei consumatori, sta guidando l’accusa contro Sora 2. In una lettera indirizzata al CEO di OpenAI Sam Altman e inoltrata al Congresso degli Stati Uniti, accusano l’azienda di dare priorità alla velocità piuttosto che alla sicurezza nel rilasciare l’app. Sostengono che il rapido lancio di Sora 2, guidato dalla pressione della concorrenza, dimostra “uno sconsiderato disprezzo” per i diritti degli utenti, la privacy e la stabilità democratica.
JB Branch, sostenitore delle politiche tecnologiche presso Public Citizen, sottolinea la potenziale minaccia alla democrazia: “Penso che stiamo entrando in un mondo in cui le persone non possono davvero fidarsi di ciò che vedono. E stiamo iniziando a vedere strategie in politica in cui la prima immagine, il primo video che viene rilasciato, è ciò che la gente ricorda.”
Questa paura non è infondata. Rapporti recenti evidenziano come Sora 2 sia stato utilizzato per generare contenuti inquietanti come video di donne strangolate. Sebbene OpenAI affermi di bloccare la nudità, le sue difficoltà di moderazione dei contenuti si estendono oltre il materiale esplicito.
L’azienda ha tentato di limitare i danni a seguito di critiche diffuse. Hanno concordato di impedire l’uso non autorizzato di sembianze di figure di spicco come Martin Luther King Jr. e Bryan Cranston nei video di Sora 2 dopo la reazione negativa delle loro proprietà e dei sindacati che rappresentano gli attori. Tuttavia, Branch sostiene che queste misure reattive non sono sufficienti. Crede che OpenAI dovrebbe dare priorità alle scelte progettuali che mitigano i danni prima di rilasciare i prodotti, piuttosto che affrontare i problemi solo dopo la protesta pubblica.
Il track record di OpenAI con il suo prodotto di punta, il chatbot ChatGPT, alimenta ulteriormente queste preoccupazioni. Sette cause legali intentate negli Stati Uniti sostengono che ChatGPT abbia spinto gli utenti al suicidio e a deliri dannosi nonostante gli avvertimenti interni sul suo potenziale di manipolazione. Questi paralleli evidenziano un modello ricorrente: OpenAI rilascia prematuramente potenti strumenti di intelligenza artificiale, lasciandoli vulnerabili ad abusi prima che vengano implementate solide garanzie.
Il dibattito attorno a Sora 2 illumina un frangente critico. Man mano che la tecnologia dell’intelligenza artificiale avanza a una velocità vertiginosa, trovare un equilibrio tra innovazione e responsabilità etica diventa sempre più cruciale. Se piattaforme come Sora 2 non sono attentamente regolamentate e guidate da considerazioni etiche, le conseguenze per gli individui e la società potrebbero essere di vasta portata e profondamente inquietanti.

























































