A inteligência artificial generativa (IA) está a aumentar rapidamente a fraude cibernética, sendo os ataques de personificação agora considerados a principal ameaça para as empresas e os consumidores. Um relatório recente do Fórum Económico Mundial (WEF) revela uma mudança significativa na perceção do risco cibernético, à medida que as fraudes baseadas na IA estão a tornar-se mais fáceis de executar e mais difíceis de detetar do que os ataques tradicionais de ransomware.
A ascensão da fraude habilitada para IA
Os executivos estão cada vez mais preocupados com a fraude provocada pela IA. O inquérito do WEF indica que 73% dos CEO sofreram fraudes cibernéticas em primeira mão, ou conhecem alguém que o tenha acontecido, no ano passado. Isto marca uma mudança dramática em relação a 2024, quando o ransomware dominava as listas de ameaças corporativas.
Essa mudança é importante porque A IA reduz a barreira de entrada para criminosos cibernéticos. Anteriormente, golpes sofisticados exigiam habilidades e recursos técnicos significativos. Agora, as ferramentas generativas de IA permitem que os invasores criem rapidamente mensagens de phishing localizadas, clonem vozes e lancem tentativas de representação altamente convincentes.
Impacto no consumidor e perdas financeiras
Os consumidores também estão sentindo o calor. O roubo de identidade é agora a principal preocupação para 68% das pessoas, superando os temores sobre dados de cartão de crédito roubados. Esta ansiedade reflecte-se no aumento das perdas por fraude. Em 2024, a Comissão Federal de Comércio dos EUA (FTC) relatou US$ 12,5 bilhões em perdas por fraude ao consumidor, um aumento de 25% ano após ano.
A Consumer Federation of America (CFA) alerta que e-mails de phishing gerados por IA, vozes falsas e alertas realistas estão corroendo os indicadores tradicionais de fraude. Essas ferramentas contornam medidas de segurança comuns, criando um senso de urgência e autenticidade.
Grupos Vulneráveis e Desafios Defensivos
O relatório do WEF destaca que a IA generativa também está amplificando os riscos para grupos vulneráveis, incluindo crianças e mulheres, que são cada vez mais alvo de falsificação de identidade e abuso de imagens sintéticas.
Embora a IA possa ser parte da solução, o relatório adverte que ferramentas de IA mal implementadas podem introduzir novas vulnerabilidades. Muitas empresas não têm os conhecimentos necessários para se defenderem eficazmente contra estas ameaças em evolução.
Proteção contra golpes baseados em IA
Os especialistas recomendam que os consumidores diminuam a velocidade, questionem as comunicações não solicitadas e verifiquem as solicitações de forma independente antes de compartilhar qualquer informação pessoal ou financeira. O site ReportFraud.ftc.gov da FTC é um recurso valioso para denunciar suspeitas de fraudes.
O aumento da fraude impulsionada pela IA sublinha a necessidade de uma ação coordenada entre governos, empresas e fornecedores de tecnologia para proteger a confiança e a estabilidade num mundo cada vez mais digital. A falta de adaptação deixará indivíduos e organizações vulneráveis a ataques cada vez mais sofisticados.
