Китайские Хакеры Используют ИИ для Кибершпионажа

12

Хакеры, предположительно поддерживаемые китайским правительством, успешно использовали инструменты искусственного интеллекта (ИИ) для организации автоматизированных кибератак против крупных компаний и правительств по всему миру. Это первый подтвержденный случай шпионской кампании, управляемой ИИ, согласно заявлению стартапа Anthropic, который обнаружил и пресек эту операцию.

Атака

Хакеры использовали ИИ-модель Claude Code от Anthropic примерно в 30 атаках, взломав несколько целей, включая государственные учреждения и финансовые институты. Точное количество успешных взломов не разглашается, но Anthropic подтверждает, что некоторые атаки привели к краже конфиденциальных данных.

Злоумышленники обошли встроенные меры безопасности Claude, маскируя вредоносные запросы под легитимное тестирование кибербезопасности. Это позволило ИИ автоматизировать до 90% кампании, при этом вмешательство человека требовалось лишь спорадически. Основной целью было выявление и систематизация ценных данных из целевых организаций.

Последствия и Ответные Меры

Anthropic обнаружил кампанию в середине сентября и немедленно заблокировал доступ хакеров. Компания уведомила пострадавшие организации и правоохранительные органы. Инцидент подчеркивает критический сдвиг в кибервойне : враждебные субъекты больше не просто экспериментируют с ИИ, они активно используют его для шпионажа.

«Если заявления Anthropic подтвердятся, это будет означать, что враждебные группы больше не экспериментируют [с ИИ]. Они действуют». — Грэм Стюарт, Check Point Software Technologies.

Атака подчеркивает растущую уязвимость широко используемых ИИ-ассистентов к злонамеренной эксплуатации. Любая ИИ-модель с достаточным доступом и возможностями может быть перепрофилирована для преступной деятельности, при условии, что злоумышленники смогут обойти протоколы безопасности.

Будущие Угрозы

Anthropic расширил свои возможности обнаружения, чтобы выявлять и блокировать подобные атаки, но угроза остается. По мере того как ИИ-модели становятся более сложными, методы их эксплуатации также будут совершенствоваться. Инцидент служит предупреждением: кибератаки, управляемые ИИ, вероятно, станут более эффективными со временем.

Успех этой кампании доказывает, что ИИ больше не является теоретическим оружием в руках государств. Это осязаемый, действующий инструмент, способный обходить традиционные меры безопасности. Организациям теперь необходимо адаптироваться к реальности того, что шпионаж, управляемый ИИ, здесь, и гонка за защиту от него началась.