L’appel à la pause dans le développement de la superintelligence de l’IA prend de l’ampleur

12

Un nombre croissant de personnalités de premier plan dans les domaines de la technologie, des affaires et des médias appellent à un ralentissement de la recherche de la superintelligence artificielle – une IA qui dépasserait l’intellect humain. Une lettre signée par plus de 850 personnes, dont d’éminents informaticiens, entrepreneurs et personnalités culturelles, appelle à un arrêt temporaire de ce développement jusqu’à ce que des mesures de protection soient mises en place.

Qui soulève ces inquiétudes ?

La liste des signataires se lit comme un who’s who du monde de la technologie et au-delà. Geoffrey Hinton et Yoshua Bengio, souvent appelés les « parrains » de l’IA en raison de leur travail révolutionnaire, ont ajouté leur voix à l’appel. À leurs côtés se trouvent Steve Wozniak, co-fondateur d’Apple, et Richard Branson, fondateur du groupe Virgin. Le groupe comprend également des universitaires, des personnalités médiatiques comme Stephen Fry, des chefs religieux et d’anciens hommes politiques. Sam Altman (PDG d’OpenAI) et Mustafa Suleyman (responsable de l’IA de Microsoft) sont notamment absents de la liste, malgré leurs précédents avertissements sur les dangers potentiels de l’IA avancée.

Comprendre la superintelligence et l’AGI

Le cœur du débat tourne autour de la superintelligence, un terme généralement compris comme une IA dépassant les capacités cognitives humaines dans tous ses aspects. La préoccupation est que de tels systèmes, une fois créés, pourraient devenir incontrôlables, entraînant potentiellement des conséquences inattendues et néfastes. L’idée selon laquelle les machines finiraient par dépasser le contrôle humain trouve ses racines dans les débuts de l’informatique, Alan Turing prédisant dans les années 1950 que ce serait le « résultat par défaut ».

Les discussions incluent également fréquemment l’Intelligence Générale Artificielle (AGI), souvent considérée comme un tremplin vers la superintelligence. L’AGI est généralement définie comme une IA correspondant ou dépassant les capacités cognitives humaines. Sam Altman, par exemple, considère l’AGI comme une force potentiellement transformatrice, capable d’« élever l’humanité », et la différencie des scénarios dans lesquels les machines prennent le contrôle. Cependant, certains critiques affirment que l’AGI pourrait encore présenter des risques importants et qu’elle est trop étroitement liée aux dangers de la superintelligence pour être poursuivie sans y réfléchir attentivement.

Pourquoi l’inquiétude grandit

L’appel à une pause découle de plusieurs préoccupations interconnectées. La lettre souligne spécifiquement les craintes suivantes :

  • Perturbation économique : L’IA pourrait automatiser les emplois à grande échelle, entraînant un chômage généralisé et une instabilité économique.
  • Perte d’autonomie : Les humains pourraient perdre le contrôle de leur vie à mesure que les systèmes d’IA prennent des décisions aux conséquences considérables.
  • Menaces contre la liberté et la dignité : L’utilisation de l’IA à des fins de surveillance et de manipulation pourrait éroder les libertés civiles et les droits de l’homme.
  • Risques pour la sécurité nationale : L’IA pourrait être utilisée comme arme, conduisant à de nouvelles formes de guerre et d’instabilité.
  • Risque existentiel : Dans le scénario le plus extrême, le développement incontrôlé de l’IA pourrait menacer la survie de l’humanité.

Le rôle des entreprises technologiques

La quête d’une IA toujours plus puissante est alimentée, en partie, par la concurrence intense entre les entreprises technologiques. Cette course est souvent encadrée en termes de sécurité nationale et de domination économique. Certaines entreprises, comme Meta, capitalisent sur le buzz autour de l’IA avancée en utilisant des termes comme « superintelligence » pour promouvoir leurs derniers modèles. Cependant, cette quête de suprématie de l’IA peut éclipser la nécessité d’un examen attentif des risques potentiels et du développement de protocoles de sécurité robustes.

Un appel à la prudence

Le chœur croissant de voix appelant à une pause dans la course à la superintelligence reflète une profonde inquiétude quant aux conséquences potentielles d’un développement incontrôlé de l’IA. Les signataires estiment qu’un moratoire sur la superintelligence est nécessaire jusqu’à ce qu’il y ait un large consensus scientifique sur la possibilité de la développer de manière sûre et contrôlable, avec un soutien public substantiel. Cela implique de développer des garanties et des cadres éthiques avant de créer des systèmes capables de surpasser l’intelligence humaine, plutôt que de tenter de les contrôler après coup.

Le développement de la superintelligence présente des risques qui ne sont pas seulement technologiques ; ils sont fondamentalement humains et affectent notre liberté, notre prospérité et potentiellement notre existence même. – Signataires de la lettre

En fin de compte, le débat en cours souligne la nécessité d’une approche réfléchie et collaborative du développement de l’IA, en donnant la priorité au bien-être humain et à l’impact sociétal parallèlement au progrès technologique.