L’intelligence artificielle générative (IA) connaît une escalade rapide dans la cyberfraude, les attaques par usurpation d’identité étant désormais considérées comme la principale menace pour les entreprises et les consommateurs. Un récent rapport du Forum économique mondial (WEF) révèle un changement significatif dans la perception des cyberrisques, car les escroqueries basées sur l’IA sont de plus en plus faciles à exécuter et plus difficiles à détecter que les attaques de ransomwares traditionnelles.
L’essor de la fraude basée sur l’IA
Les dirigeants sont de plus en plus préoccupés par la fraude basée sur l’IA. L’enquête du WEF indique que 73 % des PDG ont été directement confrontés à une fraude informatique, ou connaissent quelqu’un qui l’a été, au cours de l’année écoulée. Cela marque un changement radical par rapport à 2024, lorsque les ransomwares dominaient les listes de menaces des entreprises.
Ce changement est important car l’IA réduit les barrières à l’entrée pour les cybercriminels. Auparavant, les escroqueries sophistiquées nécessitaient des compétences techniques et des ressources importantes. Désormais, les outils d’IA générative permettent aux attaquants de créer rapidement des messages de phishing localisés, de cloner des voix et de lancer des tentatives d’usurpation d’identité très convaincantes.
Impact sur les consommateurs et pertes financières
Les consommateurs ressentent également la chaleur. Le vol d’identité est désormais la principale préoccupation pour 68 % des personnes, dépassant les craintes liées au vol de données de carte de crédit. Cette anxiété se reflète dans l’augmentation des pertes dues à la fraude. En 2024, la Federal Trade Commission (FTC) des États-Unis a signalé 12,5 milliards de dollars de pertes liées à la fraude à la consommation, soit une augmentation de 25 % d’une année sur l’autre.
La Consumer Federation of America (CFA) prévient que les e-mails de phishing générés par l’IA, les fausses voix et les alertes réalistes érodent les indicateurs d’escroquerie traditionnels. Ces outils contournent les mesures de sécurité courantes en créant un sentiment d’urgence et d’authenticité.
Groupes vulnérables et défis défensifs
Le rapport du WEF souligne que l’IA générative amplifie également les risques pour les groupes vulnérables, notamment les enfants et les femmes, qui sont de plus en plus ciblés par l’usurpation d’identité et l’abus d’images de synthèse.
Même si l’IA peut faire partie de la solution, le rapport prévient que des outils d’IA mal mis en œuvre peuvent introduire de nouvelles vulnérabilités. De nombreuses entreprises n’ont pas l’expertise nécessaire pour se défendre efficacement contre ces menaces en constante évolution.
Protection contre les escroqueries basées sur l’IA
Les experts recommandent aux consommateurs de ralentir, de remettre en question les communications non sollicitées et de vérifier de manière indépendante les demandes avant de partager des informations personnelles ou financières. Le site Web ReportFraud.ftc.gov de la FTC est une ressource précieuse pour signaler les escroqueries présumées.
L’augmentation de la fraude basée sur l’IA souligne la nécessité d’une action coordonnée entre les gouvernements, les entreprises et les fournisseurs de technologies pour protéger la confiance et la stabilité dans un monde de plus en plus numérique. Si nous ne parvenons pas à nous adapter, les individus et les organisations seront vulnérables à des attaques de plus en plus sophistiquées.
