El llamado a una pausa en el desarrollo de la superinteligencia de IA gana impulso

21

Un número cada vez mayor de figuras destacadas en los campos de la tecnología, los negocios y los medios de comunicación están instando a una desaceleración en la búsqueda de la superinteligencia artificial: IA que superaría el intelecto humano. Una carta firmada por más de 850 personas, incluidos destacados científicos informáticos, empresarios y personalidades culturales, pide un cese temporal de este desarrollo hasta que se establezcan salvaguardias.

¿Quién plantea estas inquietudes?

La lista de firmantes parece un quién es quién en el mundo tecnológico y más allá. Geoffrey Hinton y Yoshua Bengio, a menudo llamados los “padrinos” de la IA debido a su trabajo innovador, han sumado sus voces al llamado. Junto a ellos están Steve Wozniak, cofundador de Apple, y Richard Branson, fundador de Virgin Group. El grupo también incluye académicos, personalidades de los medios como Stephen Fry, líderes religiosos y ex políticos. Notablemente ausentes de la lista están Sam Altman (CEO de OpenAI) y Mustafa Suleyman (líder de IA de Microsoft), a pesar de sus advertencias previas sobre los peligros potenciales de la IA avanzada.

Comprender la superinteligencia y la AGI

El núcleo del debate gira en torno a la superinteligencia, un término generalmente entendido como una IA que supera las capacidades cognitivas humanas en todos los aspectos. La preocupación es que estos sistemas, una vez creados, puedan volverse incontrolables, lo que podría provocar consecuencias no deseadas y dañinas. La idea de que las máquinas eventualmente superen el control humano tiene sus raíces en las primeras ciencias informáticas, cuando Alan Turing predijo en la década de 1950 que este sería el “resultado predeterminado”.

Las discusiones también incluyen frecuentemente la Inteligencia General Artificial (AGI), a menudo vista como un trampolín hacia la superinteligencia. AGI se define generalmente como la IA que iguala o supera las capacidades cognitivas humanas. Sam Altman, por ejemplo, ve la AGI como una fuerza potencialmente transformadora, capaz de “elevar a la humanidad”, y la diferencia de escenarios en los que las máquinas toman el control. Sin embargo, algunos críticos argumentan que la AGI aún podría plantear riesgos importantes y está demasiado estrechamente vinculada a los peligros de la superinteligencia como para aplicarla sin una cuidadosa consideración.

Por qué crece la preocupación

El llamado a una pausa surge de varias preocupaciones interconectadas. La carta destaca específicamente los temores de:

  • Perturbación económica: la IA podría automatizar empleos a gran escala, lo que provocaría desempleo generalizado e inestabilidad económica.
  • Pérdida de autonomía: Los humanos podrían perder el control de sus vidas a medida que los sistemas de IA tomen decisiones con consecuencias de gran alcance.
  • Amenazas a la libertad y la dignidad: El uso de la IA para vigilancia y manipulación podría erosionar las libertades civiles y los derechos humanos.
  • Riesgos para la seguridad nacional: la IA podría convertirse en un arma, lo que daría lugar a nuevas formas de guerra e inestabilidad.
  • Riesgo existencial: En el escenario más extremo, el desarrollo desenfrenado de la IA podría amenazar la supervivencia de la humanidad.

El papel de las empresas tecnológicas

La búsqueda de una IA cada vez más poderosa está siendo impulsada, en parte, por la intensa competencia entre las empresas de tecnología. Esta carrera a menudo se enmarca en términos de seguridad nacional y dominio económico. Algunas empresas, como Meta, están aprovechando los rumores que rodean a la IA avanzada utilizando términos como “superinteligencia” para promocionar sus últimos modelos. Sin embargo, esta búsqueda de la supremacía de la IA puede eclipsar la necesidad de una cuidadosa consideración de los riesgos potenciales y el desarrollo de protocolos de seguridad sólidos.

Un llamado a la precaución

El creciente coro de voces que piden una pausa en la carrera hacia la superinteligencia refleja una profunda preocupación por las posibles consecuencias del desarrollo desenfrenado de la IA. Los firmantes creen que es necesaria una moratoria sobre la superinteligencia hasta que haya un amplio consenso científico de que puede desarrollarse de forma segura y controlable, con un apoyo público sustancial. Esto incluye desarrollar salvaguardias y marcos éticos antes de crear sistemas capaces de superar la inteligencia humana, en lugar de intentar controlarlos después del hecho.

El desarrollo de la superinteligencia presenta riesgos que no son meramente tecnológicos; son fundamentalmente humanos y afectan nuestra libertad, nuestra prosperidad y, potencialmente, nuestra propia existencia. – Firmantes de la carta

En última instancia, el debate en curso subraya la necesidad de un enfoque reflexivo y colaborativo para el desarrollo de la IA, priorizando el bienestar humano y el impacto social junto con el progreso tecnológico.