AI Video App desperta preocupações sobre deepfakes e democracia

8

Uma nova vaga de aplicações de geração de vídeo alimentadas por IA está a suscitar sérias preocupações sobre a propagação de deepfakes, a privacidade online e os próprios fundamentos da confiança na informação digital. O Sora 2 da OpenAI, um aplicativo popular que permite aos usuários criar vídeos curtos a partir de instruções de texto, exemplifica essas ansiedades. Embora aparentemente projetado para entretenimento – pense no rap da Rainha Elizabeth ou nas imagens cômicas da câmera da campainha – o potencial de uso indevido do Sora 2 alarma especialistas e grupos de defesa.

O fascínio do Sora 2 reside na sua simplicidade. Os usuários digitam qualquer cenário que imaginarem e a IA gera um pequeno vídeo. Esta facilidade de utilização, no entanto, alimenta receios de que agentes maliciosos possam explorá-la para criar conteúdo convincente, mas totalmente fabricado. Para além de meras partidas, as consequências são profundas: deepfakes não consensuais podem prejudicar reputações, espalhar desinformação ou mesmo incitar à violência.

Public Citizen, um grupo de vigilância do consumidor, está liderando a acusação contra o Sora 2. Em uma carta endereçada ao CEO da OpenAI, Sam Altman, e encaminhada ao Congresso dos EUA, eles acusam a empresa de priorizar a velocidade em vez da segurança no lançamento do aplicativo. Eles argumentam que o rápido lançamento do Sora 2, impulsionado pela pressão competitiva, demonstra “um desrespeito imprudente” pelos direitos dos utilizadores, privacidade e estabilidade democrática.

JB Branch, defensor de políticas tecnológicas na Public Citizen, enfatiza a ameaça potencial à democracia: “Penso que estamos a entrar num mundo em que as pessoas não podem realmente confiar no que vêem. E estamos a começar a ver estratégias na política onde a primeira imagem, o primeiro vídeo que é divulgado, é o que as pessoas lembram”.

Esse medo não é infundado. Relatórios recentes destacam como o Sora 2 tem sido usado para gerar conteúdo perturbador, como vídeos de mulheres sendo estranguladas. Embora a OpenAI afirme bloquear a nudez, suas lutas de moderação de conteúdo vão além do material explícito.

A empresa tentou controlar os danos após críticas generalizadas. Eles concordaram em impedir o uso não autorizado de imagens de figuras proeminentes como Martin Luther King Jr. e Bryan Cranston em vídeos de Sora 2 após reação de suas propriedades e sindicatos que representam atores. No entanto, Branch argumenta que estas medidas reativas são insuficientes. Ele acredita que a OpenAI deve priorizar escolhas de design que mitiguem os danos antes de lançar produtos, em vez de resolver os problemas somente após protestos públicos.

O histórico da OpenAI com seu principal produto, o chatbot ChatGPT, alimenta ainda mais essas preocupações. Sete ações judiciais movidas nos EUA alegam que o ChatGPT levou os usuários ao suicídio e a delírios prejudiciais, apesar dos avisos internos sobre seu potencial de manipulação. Esses paralelos destacam um padrão recorrente: a OpenAI lança prematuramente ferramentas poderosas de IA, deixando-as vulneráveis ​​ao uso indevido antes que salvaguardas robustas sejam implementadas.

O debate em torno do Sora 2 ilumina uma conjuntura crítica. À medida que a tecnologia de IA avança a uma velocidade vertiginosa, encontrar um equilíbrio entre inovação e responsabilidade ética torna-se cada vez mais crucial. Se plataformas como o Sora 2 não forem cuidadosamente regulamentadas e guiadas por considerações éticas, as consequências para os indivíduos e para a sociedade poderão ser de longo alcance e profundamente perturbadoras.