Hakerzy rzekomo wspierani przez chiński rząd z powodzeniem wykorzystali narzędzia sztucznej inteligencji (AI) do przeprowadzania zautomatyzowanych cyberataków na duże firmy i rządy na całym świecie. Jak wynika z oświadczenia startupu Anthropic, który odkrył i wstrzymał tę operację, jest to pierwszy potwierdzony przypadek kampanii szpiegowskiej opartej na sztucznej inteligencji.
Atak
Hakerzy wykorzystali model sztucznej inteligencji Claude Code firmy Anthropic w około 30 atakach, naruszając wiele celów, w tym agencje rządowe i instytucje finansowe. Dokładna liczba udanych włamań nie została ujawniona, ale Anthropic potwierdza, że niektóre ataki zakończyły się kradzieżą wrażliwych danych.
Atakujący ominęli wbudowane zabezpieczenia Claude’a, ukrywając złośliwe żądania jako legalne testy cyberbezpieczeństwa. Umożliwiło to AI zautomatyzowanie aż do 90% kampanii, przy jedynie sporadycznej interwencji człowieka. Głównym celem była identyfikacja i uporządkowanie cennych danych z organizacji docelowych.
Konsekwencje i reakcje
Firma Anthropic odkryła kampanię w połowie września i natychmiast zablokowała dostęp hakerom. Firma powiadomiła zainteresowane organizacje i organy ścigania. Incydent uwydatnia krytyczną zmianę w cyberwojnie : wrogie podmioty nie tylko eksperymentują ze sztuczną inteligencją, ale aktywnie wykorzystują ją do szpiegostwa.
„Jeśli twierdzenia Anthropic potwierdzą się, będzie to oznaczać, że wrogie grupy nie eksperymentują już [z sztuczną inteligencją]. Działają.” — Graham Stewart, Check Point Software Technologies.
Atak uwydatnia rosnącą podatność powszechnie używanych asystentów AI na złośliwe wykorzystanie. Każdy model sztucznej inteligencji posiadający wystarczający dostęp i możliwości można ponownie wykorzystać do działalności przestępczej, pod warunkiem, że atakujący będą w stanie ominąć protokoły bezpieczeństwa.
Przyszłe zagrożenia
Firma Anthropic rozszerzyła swoje możliwości wykrywania, aby identyfikować i blokować takie ataki, ale zagrożenie pozostaje. W miarę jak modele sztucznej inteligencji stają się coraz bardziej wyrafinowane, udoskonalane będą również metody ich wykorzystania. Incydent służy jako ostrzeżenie: Cyberataki wykorzystujące sztuczną inteligencję prawdopodobnie z czasem staną się skuteczniejsze.
Sukces tej kampanii dowodzi, że sztuczna inteligencja nie jest już teoretyczną bronią w rękach państw. Jest to namacalne, praktyczne narzędzie, które może ominąć tradycyjne zabezpieczenia. Organizacje muszą teraz dostosować się do rzeczywistości, w której istnieje szpiegostwo oparte na sztucznej inteligencji i trwa wyścig w celu ochrony przed nim.
