La richiesta di una pausa nello sviluppo della superintelligenza artificiale guadagna slancio

27

Un numero crescente di figure di spicco nei settori della tecnologia, degli affari e dei media sollecitano un rallentamento nella ricerca della superintelligenza artificiale, un’intelligenza artificiale che supererebbe l’intelletto umano. Una lettera firmata da oltre 850 persone, tra cui eminenti scienziati informatici, imprenditori e personalità culturali, chiede una sospensione temporanea di questo sviluppo fino a quando non saranno messe in atto misure di salvaguardia.

Chi solleva queste preoccupazioni?

L’elenco dei firmatari si legge come chi è chi del mondo tecnologico e non solo. Geoffrey Hinton e Yoshua Bengio, spesso chiamati i “padrini” dell’intelligenza artificiale per via del loro lavoro pionieristico, hanno aggiunto la loro voce all’appello. Al loro fianco ci sono Steve Wozniak, cofondatore di Apple, e Richard Branson, fondatore del Gruppo Virgin. Del gruppo fanno parte anche accademici, personalità dei media come Stephen Fry, leader religiosi ed ex politici. Notevolmente assenti dall’elenco sono Sam Altman (CEO di OpenAI) e Mustafa Suleyman (responsabile dell’intelligenza artificiale di Microsoft), nonostante i loro precedenti avvertimenti sui potenziali pericoli dell’intelligenza artificiale avanzata.

Comprendere la superintelligenza e l’AGI

Il fulcro del dibattito ruota attorno alla superintelligenza, un termine generalmente inteso come intelligenza artificiale che supera le capacità cognitive umane sotto ogni aspetto. La preoccupazione è che tali sistemi, una volta creati, potrebbero diventare incontrollabili, portando potenzialmente a conseguenze indesiderate e dannose. L’idea che le macchine alla fine superino il controllo umano affonda le sue radici nella prima informatica, con Alan Turing che predisse negli anni ’50 che questo sarebbe stato il “risultato predefinito”.

Le discussioni includono spesso anche l’Intelligenza Generale Artificiale (AGI), spesso vista come un trampolino di lancio verso la superintelligenza. L’AGI è generalmente definita come l’intelligenza artificiale che corrisponde o supera le capacità cognitive umane. Sam Altman, ad esempio, vede l’AGI come una forza potenzialmente trasformatrice, capace di “elevare l’umanità” e la differenzia dagli scenari in cui le macchine prendono il controllo. Tuttavia, alcuni critici sostengono che l’AGI potrebbe ancora comportare rischi significativi ed è troppo strettamente legata ai pericoli della superintelligenza per essere perseguita senza un’attenta considerazione.

Perché la preoccupazione cresce

La richiesta di una pausa nasce da diverse preoccupazioni interconnesse. La lettera evidenzia specificamente i timori di:

  • Disturbo economico: l’intelligenza artificiale potrebbe automatizzare posti di lavoro su vasta scala, portando a disoccupazione diffusa e instabilità economica.
  • Perdita di autonomia: Gli esseri umani potrebbero perdere il controllo sulle proprie vite poiché i sistemi di intelligenza artificiale prendono decisioni con conseguenze di vasta portata.
  • Minacce alla libertà e alla dignità: l’uso dell’intelligenza artificiale per la sorveglianza e la manipolazione potrebbe erodere le libertà civili e i diritti umani.
  • Rischi per la sicurezza nazionale: L’intelligenza artificiale potrebbe essere utilizzata come arma, portando a nuove forme di guerra e instabilità.
  • Rischio esistenziale: Nello scenario più estremo, lo sviluppo incontrollato dell’intelligenza artificiale potrebbe minacciare la sopravvivenza dell’umanità.

Il ruolo delle aziende tecnologiche

La ricerca di un’intelligenza artificiale sempre più potente è alimentata, in parte, dall’intensa concorrenza tra le aziende tecnologiche. Questa corsa è spesso inquadrata in termini di sicurezza nazionale e dominio economico. Alcune aziende, come Meta, stanno sfruttando il brusio che circonda l’intelligenza artificiale avanzata utilizzando termini come “superintelligenza” per promuovere i loro ultimi modelli. Tuttavia, questa ricerca della supremazia dell’IA può mettere in ombra la necessità di un’attenta considerazione dei potenziali rischi e dello sviluppo di solidi protocolli di sicurezza.

Un invito alla prudenza

Il crescente coro di voci che chiedono una pausa nella corsa verso la superintelligenza riflette una profonda preoccupazione per le potenziali conseguenze di uno sviluppo incontrollato dell’intelligenza artificiale. I firmatari ritengono che una moratoria sulla superintelligenza sia necessaria fino a quando non ci sarà un ampio consenso scientifico sulla possibilità di svilupparla in modo sicuro e controllabile, con un sostanziale sostegno pubblico. Ciò include lo sviluppo di tutele e quadri etici prima di creare sistemi in grado di superare l’intelligenza umana, piuttosto che tentare di controllarli dopo il fatto.

Lo sviluppo della superintelligenza presenta rischi che non sono meramente tecnologici; sono fondamentalmente umani e influenzano la nostra libertà, la nostra prosperità e potenzialmente la nostra stessa esistenza. – Firmatari della lettera

In definitiva, il dibattito in corso sottolinea la necessità di un approccio ponderato e collaborativo allo sviluppo dell’intelligenza artificiale, dando priorità al benessere umano e all’impatto sociale accanto al progresso tecnologico.