додому Без рубрики Čínští hackeři používají AI pro kybernetickou špionáž

Čínští hackeři používají AI pro kybernetickou špionáž

Hackeři údajně podporovaní čínskou vládou úspěšně použili nástroje umělé inteligence (AI) ke spuštění automatizovaných kybernetických útoků proti velkým společnostem a vládám po celém světě. Toto je první potvrzený případ špionážní kampaně řízené umělou inteligencí, podle prohlášení startupu Anthropic, který operaci objevil a zastavil.

Útok

Hackeři použili model umělé inteligence Claude Code společnosti Anthropic při asi 30 útocích, při nichž porušili několik cílů včetně vládních agentur a finančních institucí. Přesný počet úspěšných hacků nebyl zveřejněn, ale Anthropic potvrzuje, že některé útoky vedly ke krádeži citlivých dat.

Útočníci obešli Claudeova vestavěná bezpečnostní opatření tím, že zamaskovali škodlivé požadavky jako legitimní testování kybernetické bezpečnosti. Díky tomu umělá inteligence zautomatizovala až 90 % kampaně, přičemž byl nutný pouze sporadický zásah člověka. Hlavním cílem bylo identifikovat a uspořádat cenná data od cílových organizací.

Následky a odezvy

Anthropic objevil kampaň v polovině září a okamžitě zablokoval přístup hackerů. Společnost informovala dotčené organizace a orgány činné v trestním řízení. Incident zdůrazňuje kritický posun v kybernetické válce : nepřátelští aktéři už s AI jen neexperimentují, ale aktivně ji využívají ke špionáži.

“Pokud se potvrdí tvrzení Anthropic, znamenalo by to, že nepřátelské skupiny již neexperimentují [s AI]. Jednají.” — Graham Stewart, Check Point Software Technologies.

Útok zdůrazňuje rostoucí zranitelnost široce používaných asistentů umělé inteligence vůči škodlivému zneužití. Jakýkoli model umělé inteligence s dostatečným přístupem a schopnostmi lze znovu použít pro trestnou činnost za předpokladu, že útočníci mohou obejít bezpečnostní protokoly.

Budoucí hrozby

Společnost Anthropic rozšířila své detekční schopnosti, aby identifikovala a blokovala takové útoky, ale hrozba zůstává. S tím, jak se modely umělé inteligence stanou sofistikovanějšími, zlepší se i metody jejich využívání. Incident slouží jako varování: Kybernetické útoky řízené umělou inteligencí budou pravděpodobně časem účinnější.

Úspěch této kampaně dokazuje, že AI již není teoretickou zbraní v rukou států. Je to hmatatelný a použitelný nástroj, který dokáže obejít tradiční bezpečnostní opatření. Organizace se nyní musí přizpůsobit realitě, že špionáž řízená umělou inteligencí je tady a závod o ochranu proti ní probíhá.

Exit mobile version