Um número crescente de figuras importantes nos campos da tecnologia, dos negócios e dos meios de comunicação social apela a uma desaceleração na procura da superinteligência artificial – IA que ultrapassaria o intelecto humano. Uma carta assinada por mais de 850 pessoas, incluindo proeminentes cientistas da computação, empresários e personalidades culturais, apela a uma suspensão temporária deste desenvolvimento até que sejam implementadas salvaguardas.
Quem está levantando essas preocupações?
A lista de signatários parece quem é quem no mundo da tecnologia e além. Geoffrey Hinton e Yoshua Bengio, frequentemente chamados de “padrinhos” da IA devido ao seu trabalho inovador, acrescentaram suas vozes à chamada. Ao lado deles estão Steve Wozniak, cofundador da Apple, e Richard Branson, fundador do Virgin Group. O grupo também inclui acadêmicos, personalidades da mídia como Stephen Fry, líderes religiosos e ex-políticos. Notavelmente ausentes da lista estão Sam Altman (CEO da OpenAI) e Mustafa Suleyman (líder de IA da Microsoft), apesar de seus avisos anteriores sobre os perigos potenciais da IA avançada.
Noções básicas sobre superinteligência e AGI
O cerne do debate gira em torno da superinteligência, um termo geralmente entendido como a IA que excede as capacidades cognitivas humanas em todos os aspectos. A preocupação é que tais sistemas, uma vez criados, possam tornar-se incontroláveis, levando potencialmente a consequências indesejadas e prejudiciais. A ideia de que as máquinas eventualmente superariam o controle humano tem raízes nos primórdios da ciência da computação, com Alan Turing prevendo na década de 1950 que esse seria o “resultado padrão”.
As discussões também incluem frequentemente a Inteligência Artificial Geral (AGI), muitas vezes vista como um trampolim para a superinteligência. AGI é geralmente definido como a IA que combina ou supera as habilidades cognitivas humanas. Sam Altman, por exemplo, vê a AGI como uma força potencialmente transformadora, capaz de “elevar a humanidade”, e a diferencia de cenários onde as máquinas assumem o controle. No entanto, alguns críticos argumentam que a AGI ainda pode representar riscos significativos e está demasiado ligada aos perigos da superinteligência para ser prosseguida sem uma consideração cuidadosa.
Por que a preocupação está crescendo
O apelo a uma pausa decorre de várias preocupações interligadas. A carta destaca especificamente os temores de:
- Perturbações económicas: A IA poderia automatizar empregos em grande escala, levando ao desemprego generalizado e à instabilidade económica.
- Perda de autonomia: Os humanos podem perder o controle sobre suas vidas à medida que os sistemas de IA tomam decisões com consequências de longo alcance.
- Ameaças à liberdade e à dignidade: O uso da IA para vigilância e manipulação pode minar as liberdades civis e os direitos humanos.
- Riscos à segurança nacional: A IA pode ser transformada em arma, levando a novas formas de guerra e instabilidade.
- Risco existencial: No cenário mais extremo, o desenvolvimento descontrolado da IA poderia ameaçar a sobrevivência da humanidade.
O papel das empresas de tecnologia
A procura por uma IA cada vez mais poderosa está a ser alimentada, em parte, pela intensa concorrência entre empresas tecnológicas. Esta corrida é muitas vezes enquadrada em termos de segurança nacional e domínio económico. Algumas empresas, como a Meta, estão aproveitando o burburinho em torno da IA avançada usando termos como “superinteligência” para promover seus modelos mais recentes. No entanto, esta busca pela supremacia da IA pode ofuscar a necessidade de uma consideração cuidadosa dos riscos potenciais e do desenvolvimento de protocolos de segurança robustos.
Um pedido de cautela
O crescente coro de vozes que pedem uma pausa na corrida à superinteligência reflecte uma profunda preocupação sobre as potenciais consequências do desenvolvimento descontrolado da IA. Os signatários acreditam que é necessária uma moratória sobre a superinteligência até que haja um amplo consenso científico de que esta possa ser desenvolvida de forma segura e controlada, com apoio público substancial. Isto inclui o desenvolvimento de salvaguardas e quadros éticos antes de criar sistemas capazes de superar a inteligência humana, em vez de tentar controlá-los depois do facto.
O desenvolvimento da superinteligência apresenta riscos que não são meramente tecnológicos; são fundamentalmente humanos, afectando a nossa liberdade, a nossa prosperidade e, potencialmente, a nossa própria existência. – Signatários da carta
Em última análise, o debate em curso sublinha a necessidade de uma abordagem ponderada e colaborativa para o desenvolvimento da IA, dando prioridade ao bem-estar humano e ao impacto social a par do progresso tecnológico.






























































