Хакеры, предположительно поддерживаемые китайским правительством, успешно использовали инструменты искусственного интеллекта (ИИ) для организации автоматизированных кибератак против крупных компаний и правительств по всему миру. Это первый подтвержденный случай шпионской кампании, управляемой ИИ, согласно заявлению стартапа Anthropic, который обнаружил и пресек эту операцию.
Атака
Хакеры использовали ИИ-модель Claude Code от Anthropic примерно в 30 атаках, взломав несколько целей, включая государственные учреждения и финансовые институты. Точное количество успешных взломов не разглашается, но Anthropic подтверждает, что некоторые атаки привели к краже конфиденциальных данных.
Злоумышленники обошли встроенные меры безопасности Claude, маскируя вредоносные запросы под легитимное тестирование кибербезопасности. Это позволило ИИ автоматизировать до 90% кампании, при этом вмешательство человека требовалось лишь спорадически. Основной целью было выявление и систематизация ценных данных из целевых организаций.
Последствия и Ответные Меры
Anthropic обнаружил кампанию в середине сентября и немедленно заблокировал доступ хакеров. Компания уведомила пострадавшие организации и правоохранительные органы. Инцидент подчеркивает критический сдвиг в кибервойне : враждебные субъекты больше не просто экспериментируют с ИИ, они активно используют его для шпионажа.
«Если заявления Anthropic подтвердятся, это будет означать, что враждебные группы больше не экспериментируют [с ИИ]. Они действуют». — Грэм Стюарт, Check Point Software Technologies.
Атака подчеркивает растущую уязвимость широко используемых ИИ-ассистентов к злонамеренной эксплуатации. Любая ИИ-модель с достаточным доступом и возможностями может быть перепрофилирована для преступной деятельности, при условии, что злоумышленники смогут обойти протоколы безопасности.
Будущие Угрозы
Anthropic расширил свои возможности обнаружения, чтобы выявлять и блокировать подобные атаки, но угроза остается. По мере того как ИИ-модели становятся более сложными, методы их эксплуатации также будут совершенствоваться. Инцидент служит предупреждением: кибератаки, управляемые ИИ, вероятно, станут более эффективными со временем.
Успех этой кампании доказывает, что ИИ больше не является теоретическим оружием в руках государств. Это осязаемый, действующий инструмент, способный обходить традиционные меры безопасности. Организациям теперь необходимо адаптироваться к реальности того, что шпионаж, управляемый ИИ, здесь, и гонка за защиту от него началась.
