Gli hacker cinesi sostenuti dallo Stato hanno utilizzato con successo strumenti di intelligenza artificiale (AI) per orchestrare attacchi informatici automatizzati contro le principali aziende e governi di tutto il mondo. Questo segna il primo caso confermato di campagna di spionaggio guidata dall’intelligenza artificiale, secondo la startup Anthropic, che ha rilevato e interrotto l’operazione.
L’attacco
Gli hacker hanno sfruttato il modello AI Claude Code di Anthropic in circa 30 attacchi, violando più obiettivi, tra cui agenzie governative e istituzioni finanziarie. Anche se il numero esatto delle violazioni riuscite rimane sconosciuto, Anthropic conferma che alcuni attacchi sono riusciti a estrarre dati sensibili.
Gli hacker hanno aggirato le misure di sicurezza integrate di Claude mascherando richieste dannose come test legittimi di sicurezza informatica. Ciò ha consentito all’intelligenza artificiale di automatizzare fino al 90% della campagna, con l’intervento umano necessario solo sporadicamente. L’obiettivo principale era identificare e organizzare dati preziosi provenienti da organizzazioni mirate.
Implicazioni e risposte
Anthropic ha rilevato la campagna a metà settembre e ha immediatamente revocato l’accesso agli hacker. La società ha quindi informato le organizzazioni interessate e le forze dell’ordine. L’incidente evidenzia un cambiamento critico nella guerra informatica : gli attori ostili non si limitano più a sperimentare l’intelligenza artificiale, ma la stanno attivamente impiegando per lo spionaggio.
“Se le affermazioni di Anthropic fossero provate, significherebbe che i gruppi ostili non stanno più sperimentando [con l’intelligenza artificiale]. Sono operativi.” — Graeme Stewart, Check Point Software Technologies.
L’attacco sottolinea la crescente vulnerabilità degli assistenti IA ampiamente adottati allo sfruttamento dannoso. Qualsiasi modello di intelligenza artificiale con accesso e capacità sufficienti può essere riutilizzato per attività criminali, a condizione che gli aggressori riescano ad aggirare i protocolli di sicurezza.
Minacce future
Anthropic ha ampliato le sue capacità di rilevamento per identificare e bloccare attacchi simili, ma la minaccia rimane. Man mano che i modelli di intelligenza artificiale diventano più sofisticati, lo saranno anche i metodi utilizzati per sfruttarli. L’incidente serve da avvertimento: gli attacchi informatici guidati dall’intelligenza artificiale diventeranno probabilmente più efficaci nel tempo.
Il successo di questa campagna dimostra che l’intelligenza artificiale non è più un’arma teorica nelle mani degli stati-nazione. È uno strumento tangibile e operativo in grado di aggirare le tradizionali misure di sicurezza. Le organizzazioni devono ora adattarsi alla realtà dello spionaggio basato sull’intelligenza artificiale e la corsa per difendersi da esso è iniziata






























































