A Casa Branca divulgou na sexta-feira o seu novo quadro político para regular a inteligência artificial generativa, sinalizando uma intenção clara de supervisão federal – mas que os críticos dizem que fica aquém das proteções necessárias. O plano, defendido pela “Lei Trump America AI” da senadora Marsha Blackburn, visa agilizar o desenvolvimento da IA sob um único conjunto de regras nacionais, em vez de permitir uma colcha de retalhos de regulamentações estaduais.
A necessidade de regulamentação
O rápido avanço da IA ultrapassou as leis existentes, deixando lacunas na privacidade do consumidor, na proteção dos direitos de autor e na segurança pública. As preocupações vão desde o potencial de deslocamento de empregos impulsionado pela IA até a disseminação de deepfakes e a exploração de crianças por meio de conteúdo gerado por IA. A administração reconhece estes riscos, mas propõe soluções que muitos especialistas consideram insuficientes.
Propostas principais: um saco misto
O quadro centra-se em diversas áreas-chave, mas a sua abordagem é desigual.
- Proteção das Crianças: Embora reconheça os perigos do material de abuso sexual infantil alimentado por IA e o impacto na saúde mental dos adolescentes, o plano baseia-se em grande parte nas leis existentes – que os críticos argumentam serem inadequadas. Os estados têm margem de manobra para promulgar regulamentações mais rigorosas, criando um potencial para inconsistências.
- Deslocamento de empregos: A Casa Branca sugere o treinamento da força de trabalho e o desenvolvimento dos jovens como resposta às perdas de empregos causadas pela IA, em vez de medidas regulatórias. Esta abordagem não regulamentar tem sido criticada como passiva face à rápida automatização.
- Preocupações com infraestrutura: O plano incentiva a construção simplificada de data centers, apesar das crescentes preocupações ambientais e da pressão sobre as redes elétricas locais. Embora algumas empresas de tecnologia tenham se comprometido a cobrir custos adicionais, a aplicação continua voluntária.
- Disputas de direitos autorais: A administração reafirma sua posição de que as empresas de IA podem usar material protegido por direitos autorais para treinamento sem permissão, citando o uso justo. Esta posição enfrenta desafios jurídicos contínuos, mas o quadro sugere permitir o prosseguimento dos processos em vez de intervir com a nova legislação.
Controle Federal vs. Controle Estadual: Um Debate Central
O Presidente Trump argumentou repetidamente que o domínio federal é essencial para evitar que os EUA “perdam” a corrida à IA. Uma tentativa anterior de impedir a regulamentação estatal falhou em Julho, mas a Casa Branca está a redobrar a sua reivindicação de autoridade. Os críticos argumentam que esta centralização ignora as necessidades e preocupações únicas de cada Estado.
Reações da indústria e de defesa de direitos
Os grupos da indústria tecnológica apoiam geralmente um quadro nacional unificado, enquanto os defensores dos consumidores expressam cepticismo. A Consumer Technology Association elogiou o plano, enfatizando a importância da inovação em IA e da liberdade de expressão. No entanto, organizações como o Electronic Privacy Information Center argumentam que a proposta é “leve na proteção e pesada na promoção de sistemas perigosos de IA”.
O problema central
A abordagem da Casa Branca é caracterizada por contradições internas: defende a preempção federal e ao mesmo tempo submete-se à autoridade estatal. Esta ambiguidade, juntamente com a confiança no cumprimento voluntário e em soluções não regulamentares, levanta dúvidas sobre a sua eficácia na abordagem dos riscos reais da IA.
“O quadro contém algumas declarações de princípios sólidas, mas a sua utilidade para os legisladores é limitada pelas suas contradições internas e pela incapacidade de lidar com as principais tensões entre as várias abordagens.” – Samir Jain, Centro para Democracia e Tecnologia
O plano de regulamentação da IA da administração Trump é um passo limitado em direcção à supervisão. Sem mecanismos de aplicação mais fortes e proteções mais claras para consumidores e grupos vulneráveis, a rápida expansão da IA poderá continuar sem controlo.





























