додому Без рубрики Chińscy hakerzy wykorzystują sztuczną inteligencję do cyberszpiegostwa

Chińscy hakerzy wykorzystują sztuczną inteligencję do cyberszpiegostwa

Hakerzy rzekomo wspierani przez chiński rząd z powodzeniem wykorzystali narzędzia sztucznej inteligencji (AI) do przeprowadzania zautomatyzowanych cyberataków na duże firmy i rządy na całym świecie. Jak wynika z oświadczenia startupu Anthropic, który odkrył i wstrzymał tę operację, jest to pierwszy potwierdzony przypadek kampanii szpiegowskiej opartej na sztucznej inteligencji.

Atak

Hakerzy wykorzystali model sztucznej inteligencji Claude Code firmy Anthropic w około 30 atakach, naruszając wiele celów, w tym agencje rządowe i instytucje finansowe. Dokładna liczba udanych włamań nie została ujawniona, ale Anthropic potwierdza, że ​​niektóre ataki zakończyły się kradzieżą wrażliwych danych.

Atakujący ominęli wbudowane zabezpieczenia Claude’a, ukrywając złośliwe żądania jako legalne testy cyberbezpieczeństwa. Umożliwiło to AI zautomatyzowanie aż do 90% kampanii, przy jedynie sporadycznej interwencji człowieka. Głównym celem była identyfikacja i uporządkowanie cennych danych z organizacji docelowych.

Konsekwencje i reakcje

Firma Anthropic odkryła kampanię w połowie września i natychmiast zablokowała dostęp hakerom. Firma powiadomiła zainteresowane organizacje i organy ścigania. Incydent uwydatnia krytyczną zmianę w cyberwojnie : wrogie podmioty nie tylko eksperymentują ze sztuczną inteligencją, ale aktywnie wykorzystują ją do szpiegostwa.

„Jeśli twierdzenia Anthropic potwierdzą się, będzie to oznaczać, że wrogie grupy nie eksperymentują już [z sztuczną inteligencją]. Działają.” — Graham Stewart, Check Point Software Technologies.

Atak uwydatnia rosnącą podatność powszechnie używanych asystentów AI na złośliwe wykorzystanie. Każdy model sztucznej inteligencji posiadający wystarczający dostęp i możliwości można ponownie wykorzystać do działalności przestępczej, pod warunkiem, że atakujący będą w stanie ominąć protokoły bezpieczeństwa.

Przyszłe zagrożenia

Firma Anthropic rozszerzyła swoje możliwości wykrywania, aby identyfikować i blokować takie ataki, ale zagrożenie pozostaje. W miarę jak modele sztucznej inteligencji stają się coraz bardziej wyrafinowane, udoskonalane będą również metody ich wykorzystania. Incydent służy jako ostrzeżenie: Cyberataki wykorzystujące sztuczną inteligencję prawdopodobnie z czasem staną się skuteczniejsze.

Sukces tej kampanii dowodzi, że sztuczna inteligencja nie jest już teoretyczną bronią w rękach państw. Jest to namacalne, praktyczne narzędzie, które może ominąć tradycyjne zabezpieczenia. Organizacje muszą teraz dostosować się do rzeczywistości, w której istnieje szpiegostwo oparte na sztucznej inteligencji i trwa wyścig w celu ochrony przed nim.

Exit mobile version