Door de staat gesteunde hackers uit China hebben met succes hulpmiddelen voor kunstmatige intelligentie (AI) gebruikt om geautomatiseerde cyberaanvallen tegen grote bedrijven en overheden over de hele wereld te orkestreren. Dit is het eerste bevestigde geval van een AI-gestuurde spionagecampagne, volgens AI-startup Anthropic, die de operatie heeft gedetecteerd en stopgezet.
De aanval
De hackers maakten gebruik van het Claude Code AI-model van Anthropic bij ongeveer dertig aanvallen, waarbij meerdere doelen werden getroffen, waaronder overheidsinstanties en financiële instellingen. Hoewel het exacte aantal succesvolle inbreuken onbekend blijft, bevestigt Anthropic dat sommige aanvallen erin slaagden gevoelige gegevens te extraheren.
De hackers omzeilden de ingebouwde veiligheidsmaatregelen van Claude door kwaadwillige verzoeken voor te doen als legitieme cyberbeveiligingstests. Hierdoor kon de AI tot 90% van de campagne automatiseren, waarbij menselijke tussenkomst slechts sporadisch nodig was. Het primaire doel was het identificeren en ordenen van waardevolle gegevens van gerichte organisaties.
Implicaties en reactie
Anthropic ontdekte de campagne medio september en trok onmiddellijk de toegang van de hackers in. Het bedrijf heeft vervolgens de getroffen organisaties en de wetshandhaving op de hoogte gebracht. Het incident benadrukt een kritieke verschuiving in cyberoorlogvoering : vijandige actoren experimenteren niet langer alleen met AI, ze zetten deze actief in voor spionage.
“Als de beweringen van Anthropic worden bewezen, zou dit betekenen dat vijandige groepen niet meer [met AI] experimenteren. Ze zijn operationeel.” — Graeme Stewart, Check Point Software Technologies.
De aanval onderstreept de groeiende kwetsbaarheid van algemeen gebruikte AI-assistenten voor kwaadwillige uitbuiting. Elk AI-model met voldoende toegang en mogelijkheden kan worden hergebruikt voor criminele activiteiten, op voorwaarde dat aanvallers veiligheidsprotocollen kunnen omzeilen.
Toekomstige bedreigingen
Anthropic heeft zijn detectiemogelijkheden uitgebreid om soortgelijke aanvallen te identificeren en te blokkeren, maar de dreiging blijft bestaan. Naarmate AI-modellen geavanceerder worden, zullen ook de methoden die worden gebruikt om ze te exploiteren dat doen. Het incident dient als waarschuwing: AI-gestuurde cyberaanvallen zullen in de loop van de tijd waarschijnlijk effectiever worden.
Het succes van deze campagne bewijst dat AI niet langer een theoretisch wapen is in de handen van natiestaten. Het is een tastbaar, operationeel instrument dat traditionele beveiligingsmaatregelen kan omzeilen. Organisaties moeten zich nu aanpassen aan de realiteit dat AI-aangedreven spionage er is, en de race om zich hiertegen te verdedigen is begonnen
