L’intelligenza artificiale generativa (AI) sta rapidamente aumentando le frodi informatiche, con attacchi di furto d’identità ora considerati la principale minaccia per aziende e consumatori. Un recente rapporto del World Economic Forum (WEF) rivela un cambiamento significativo nella percezione del rischio informatico, poiché le truffe basate sull’intelligenza artificiale stanno diventando più facili da eseguire e più difficili da rilevare rispetto ai tradizionali attacchi ransomware.
L’ascesa delle frodi basate sull’intelligenza artificiale
I dirigenti sono sempre più preoccupati per le frodi basate sull’intelligenza artificiale. L’indagine del WEF indica che il 73% dei CEO ha sperimentato in prima persona frodi basate sull’uso di tecnologie informatiche, o conosce qualcuno che l’ha sperimentata, nell’ultimo anno. Ciò segna un cambiamento drammatico rispetto al 2024, quando il ransomware dominava gli elenchi delle minacce aziendali.
Questo cambiamento è importante perché L’intelligenza artificiale abbassa le barriere all’ingresso per i criminali informatici. In precedenza, le truffe sofisticate richiedevano competenze e risorse tecniche significative. Ora, gli strumenti di intelligenza artificiale generativa consentono agli aggressori di creare rapidamente messaggi di phishing localizzati, clonare voci e lanciare tentativi di imitazione altamente convincenti.
Impatto sui consumatori e perdite finanziarie
Anche i consumatori sentono il caldo. Il furto di identità è ora la principale preoccupazione per il 68% delle persone, superando i timori legati al furto dei dati delle carte di credito. Questa ansia si riflette nell’aumento delle perdite per frode. Nel 2024, la Federal Trade Commission (FTC) degli Stati Uniti ha segnalato 12,5 miliardi di dollari di perdite dovute a frodi ai consumatori, un aumento del 25% su base annua.
La Consumer Federation of America (CFA) avverte che le e-mail di phishing generate dall’intelligenza artificiale, le voci deepfake e gli avvisi realistici stanno erodendo i tradizionali indicatori di truffa. Questi strumenti aggirano le misure di sicurezza comuni creando un senso di urgenza e autenticità.
Gruppi vulnerabili e sfide difensive
Il rapporto del WEF evidenzia che l’intelligenza artificiale generativa sta anche amplificando i rischi per i gruppi vulnerabili, tra cui bambini e donne, che sono sempre più presi di mira attraverso l’impersonificazione e l’abuso di immagini sintetiche.
Sebbene l’intelligenza artificiale possa essere parte della soluzione, il rapporto avverte che strumenti di intelligenza artificiale scarsamente implementati possono introdurre nuove vulnerabilità. Molte aziende non hanno le competenze per difendersi in modo efficace da queste minacce in evoluzione.
Protezione dalle truffe basate sull’intelligenza artificiale
Gli esperti raccomandano ai consumatori di rallentare, porre domande sulle comunicazioni non richieste e verificare in modo indipendente le richieste prima di condividere qualsiasi informazione personale o finanziaria. Il sito Web ReportFraud.ftc.gov della FTC è una risorsa preziosa per segnalare sospette truffe.
L’impennata delle frodi guidate dall’intelligenza artificiale sottolinea la necessità di un’azione coordinata tra governi, aziende e fornitori di tecnologia per proteggere la fiducia e la stabilità in un mondo sempre più digitale. Il mancato adattamento lascerà individui e organizzazioni vulnerabili ad attacchi sempre più sofisticati.
