Oproep tot pauze in de ontwikkeling van AI-superintelligentie wint aan momentum

14

Een groeiend aantal leidende figuren op het gebied van technologie, zakenleven en media dringen aan op een vertraging in het streven naar kunstmatige superintelligentie – AI die het menselijk intellect zou overstijgen. In een brief, ondertekend door ruim 850 mensen, waaronder vooraanstaande computerwetenschappers, ondernemers en culturele persoonlijkheden, wordt opgeroepen tot een tijdelijke stopzetting van deze ontwikkeling totdat er waarborgen zijn getroffen.

Wie uit deze zorgen?

De lijst met ondertekenaars leest als een who’s who van de technische wereld en daarbuiten. Geoffrey Hinton en Yoshua Bengio, vaak de “peetvaders” van AI genoemd vanwege hun baanbrekende werk, hebben hun stem aan de oproep toegevoegd. Naast hen staan ​​Steve Wozniak, mede-oprichter van Apple, en Richard Branson, oprichter van de Virgin Group. Tot de groep behoren ook academici, mediapersoonlijkheden zoals Stephen Fry, religieuze leiders en voormalige politici. Opvallende afwezigen op de lijst zijn Sam Altman (CEO van OpenAI) en Mustafa Suleyman (de AI-leider van Microsoft), ondanks hun eerdere waarschuwingen over de potentiële gevaren van geavanceerde AI.

Superintelligentie en AGI begrijpen

De kern van het debat draait om superintelligentie, een term die algemeen wordt opgevat als AI die de menselijke cognitieve vermogens in elk opzicht overtreft. De zorg is dat dergelijke systemen, eenmaal gecreëerd, oncontroleerbaar kunnen worden, wat mogelijk tot onbedoelde en schadelijke gevolgen kan leiden. Het idee dat machines uiteindelijk de menselijke controle overstijgen heeft wortels in de vroege computerwetenschap, waarbij Alan Turing in de jaren vijftig voorspelde dat dit de ‘standaarduitkomst’ zou zijn.

De discussies gaan ook vaak over Artificial General Intelligence (AGI), vaak gezien als een opstap naar superintelligentie. AGI wordt over het algemeen gedefinieerd als AI die de menselijke cognitieve vaardigheden evenaart of overtreft. Sam Altman beschouwt AGI bijvoorbeeld als een potentieel transformerende kracht, die in staat is om de mensheid te ‘verheffen’, en onderscheidt dit van scenario’s waarin machines de controle overnemen. Sommige critici beweren echter dat AGI nog steeds aanzienlijke risico’s met zich mee kan brengen en te nauw verbonden is met de gevaren van superintelligentie om zonder zorgvuldige overweging te worden nagestreefd.

Waarom de bezorgdheid groeit

De roep om een pauze komt voort uit verschillende onderling verbonden zorgen. In de brief wordt specifiek gewezen op de angst voor:

  • Economische ontwrichting: AI zou banen op grote schaal kunnen automatiseren, wat zou leiden tot wijdverbreide werkloosheid en economische instabiliteit.
  • Verlies van autonomie: Mensen kunnen de controle over hun leven verliezen als AI-systemen beslissingen nemen met verstrekkende gevolgen.
  • Bedreigingen voor de vrijheid en waardigheid: Het gebruik van AI voor toezicht en manipulatie zou de burgerlijke vrijheden en de mensenrechten kunnen uithollen.
  • Nationale veiligheidsrisico’s: AI kan worden bewapend, wat kan leiden tot nieuwe vormen van oorlogvoering en instabiliteit.
  • Existentieel risico: In het meest extreme scenario zou ongecontroleerde AI-ontwikkeling het voortbestaan ​​van de mensheid kunnen bedreigen.

De rol van technologiebedrijven

Het streven naar steeds krachtigere AI wordt gedeeltelijk gevoed door hevige concurrentie tussen technologiebedrijven. Deze race wordt vaak ingekaderd in termen van nationale veiligheid en economische dominantie. Sommige bedrijven, zoals Meta, profiteren van de buzz rond geavanceerde AI door termen als ‘superintelligentie’ te gebruiken om hun nieuwste modellen te promoten. Dit streven naar AI-suprematie kan echter de noodzaak van een zorgvuldige afweging van potentiële risico’s en de ontwikkeling van robuuste veiligheidsprotocollen overschaduwen.

Een oproep tot voorzichtigheid

Het groeiende koor van stemmen dat oproept tot een pauze in de race naar superintelligentie weerspiegelt een diepe bezorgdheid over de mogelijke gevolgen van ongecontroleerde AI-ontwikkeling. De ondertekenaars zijn van mening dat een moratorium op superintelligentie noodzakelijk is totdat er een brede wetenschappelijke consensus bestaat dat deze veilig en controleerbaar kan worden ontwikkeld, met substantiële publieke steun. Dit omvat het ontwikkelen van waarborgen en ethische kaders voordat systemen worden gecreëerd die de menselijke intelligentie kunnen overtreffen, in plaats van te proberen deze achteraf te controleren.

De ontwikkeling van superintelligentie brengt risico’s met zich mee die niet louter technologisch van aard zijn; ze zijn fundamenteel menselijk en beïnvloeden onze vrijheid, onze welvaart en mogelijk zelfs ons bestaan. – Ondertekenaars van de brief

Uiteindelijk onderstreept het voortdurende debat de noodzaak van een doordachte en collaboratieve benadering van de ontwikkeling van AI, waarbij prioriteit wordt gegeven aan het menselijk welzijn en de maatschappelijke impact naast de technologische vooruitgang.