Pedido de pausa no desenvolvimento da superinteligência de IA ganha impulso

11

Um número crescente de figuras importantes nos campos da tecnologia, dos negócios e dos meios de comunicação social apela a uma desaceleração na procura da superinteligência artificial – IA que ultrapassaria o intelecto humano. Uma carta assinada por mais de 850 pessoas, incluindo proeminentes cientistas da computação, empresários e personalidades culturais, apela a uma suspensão temporária deste desenvolvimento até que sejam implementadas salvaguardas.

Quem está levantando essas preocupações?

A lista de signatários parece quem é quem no mundo da tecnologia e além. Geoffrey Hinton e Yoshua Bengio, frequentemente chamados de “padrinhos” da IA ​​devido ao seu trabalho inovador, acrescentaram suas vozes à chamada. Ao lado deles estão Steve Wozniak, cofundador da Apple, e Richard Branson, fundador do Virgin Group. O grupo também inclui acadêmicos, personalidades da mídia como Stephen Fry, líderes religiosos e ex-políticos. Notavelmente ausentes da lista estão Sam Altman (CEO da OpenAI) e Mustafa Suleyman (líder de IA da Microsoft), apesar de seus avisos anteriores sobre os perigos potenciais da IA ​​avançada.

Noções básicas sobre superinteligência e AGI

O cerne do debate gira em torno da superinteligência, um termo geralmente entendido como a IA que excede as capacidades cognitivas humanas em todos os aspectos. A preocupação é que tais sistemas, uma vez criados, possam tornar-se incontroláveis, levando potencialmente a consequências indesejadas e prejudiciais. A ideia de que as máquinas eventualmente superariam o controle humano tem raízes nos primórdios da ciência da computação, com Alan Turing prevendo na década de 1950 que esse seria o “resultado padrão”.

As discussões também incluem frequentemente a Inteligência Artificial Geral (AGI), muitas vezes vista como um trampolim para a superinteligência. AGI é geralmente definido como a IA que combina ou supera as habilidades cognitivas humanas. Sam Altman, por exemplo, vê a AGI como uma força potencialmente transformadora, capaz de “elevar a humanidade”, e a diferencia de cenários onde as máquinas assumem o controle. No entanto, alguns críticos argumentam que a AGI ainda pode representar riscos significativos e está demasiado ligada aos perigos da superinteligência para ser prosseguida sem uma consideração cuidadosa.

Por que a preocupação está crescendo

O apelo a uma pausa decorre de várias preocupações interligadas. A carta destaca especificamente os temores de:

  • Perturbações económicas: A IA poderia automatizar empregos em grande escala, levando ao desemprego generalizado e à instabilidade económica.
  • Perda de autonomia: Os humanos podem perder o controle sobre suas vidas à medida que os sistemas de IA tomam decisões com consequências de longo alcance.
  • Ameaças à liberdade e à dignidade: O uso da IA ​​para vigilância e manipulação pode minar as liberdades civis e os direitos humanos.
  • Riscos à segurança nacional: A IA pode ser transformada em arma, levando a novas formas de guerra e instabilidade.
  • Risco existencial: No cenário mais extremo, o desenvolvimento descontrolado da IA ​​poderia ameaçar a sobrevivência da humanidade.

O papel das empresas de tecnologia

A procura por uma IA cada vez mais poderosa está a ser alimentada, em parte, pela intensa concorrência entre empresas tecnológicas. Esta corrida é muitas vezes enquadrada em termos de segurança nacional e domínio económico. Algumas empresas, como a Meta, estão aproveitando o burburinho em torno da IA ​​avançada usando termos como “superinteligência” para promover seus modelos mais recentes. No entanto, esta busca pela supremacia da IA ​​pode ofuscar a necessidade de uma consideração cuidadosa dos riscos potenciais e do desenvolvimento de protocolos de segurança robustos.

Um pedido de cautela

O crescente coro de vozes que pedem uma pausa na corrida à superinteligência reflecte uma profunda preocupação sobre as potenciais consequências do desenvolvimento descontrolado da IA. Os signatários acreditam que é necessária uma moratória sobre a superinteligência até que haja um amplo consenso científico de que esta possa ser desenvolvida de forma segura e controlada, com apoio público substancial. Isto inclui o desenvolvimento de salvaguardas e quadros éticos antes de criar sistemas capazes de superar a inteligência humana, em vez de tentar controlá-los depois do facto.

O desenvolvimento da superinteligência apresenta riscos que não são meramente tecnológicos; são fundamentalmente humanos, afectando a nossa liberdade, a nossa prosperidade e, potencialmente, a nossa própria existência. – Signatários da carta

Em última análise, o debate em curso sublinha a necessidade de uma abordagem ponderada e colaborativa para o desenvolvimento da IA, dando prioridade ao bem-estar humano e ao impacto social a par do progresso tecnológico.