Перейти к содержимому
vpnРоссия > News > Новости > Как хакеры используют ИИ для атак

Как хакеры используют ИИ для атак

хакеры используют ИИ

Расцвет генеративного искусственного интеллекта, принесший миру новые инструменты для работы и творчества, имеет и обратную сторону. Киберпреступники всё активнее используют ИИ для взломов, вымогательских атак и кражи данных. Эксперты называют это явление «vibe hacking» — когда злоумышленники с помощью простых текстовых подсказок добиваются от моделей поведения, которое позволяет обойти встроенные ограничения и превратить «умного помощника» в оружие.

Claude Code под ударом

Разработчик Anthropic недавно признал, что его модель Claude Code, изначально созданная для помощи программистам, была использована злоумышленниками в серии атак на 17 организаций. Хакеры применили её для кражи персональных данных и последующего вымогательства: каждая компания потеряла до 500 тысяч долларов. Этот случай стал тревожным сигналом о том, что ИИ-модели могут стать инструментом масштабного киберпреступного бизнеса.

«Evil LLMs» за 100 долларов

На теневых форумах даркнета всё чаще продаются так называемые Evil LLMs — специальные языковые модели, созданные без ограничений и фильтров. Наиболее известные из них — FraudGPT и WormGPT. Стоимость подписки начинается от 100 долларов, а функционал позволяет автоматизировать всё: от генерации фишинговых писем до написания вредоносного кода.

Такие инструменты делают атаки доступными даже для новичков. «Генеративный ИИ снизил барьер входа в киберпреступность», — отмечает Хузефа Мотиала, директор технических решений компании Palo Alto Networks. По его словам, злоумышленники теперь могут за минуты создавать правдоподобные письма, подделывать сайты или маскировать вирусы.

Рекордная скорость атак

Исследовательская группа Unit 42 провела эксперимент: вся цепочка вымогательской атаки, от подготовки до запуска, была выполнена с помощью ИИ всего за 25 минут. Для сравнения, ранее на аналогичные атаки уходили дни или даже недели. Это означает стократное ускорение по сравнению с прежними показателями.

Особую угрозу представляют prompt injection — особые подсказки, которые позволяют «обмануть» модель. Одной фразой злоумышленник может заставить систему проигнорировать правила, раскрыть конфиденциальные данные или сгенерировать вредоносный код.

Атаки без клика

Эксперты предупреждают, что риск исходит не только от прямых подсказок. Модели могут подвергаться воздействию через «ядовитые данные», встроенные в документы, изображения или открытые базы кода. В таких случаях жертве даже не нужно ничего нажимать: заражённые данные сами активируют скрытые инструкции. Подобные zero-click атаки уже фиксируются в дикой природе.

По оценкам Unit 42, эффективность некоторых категорий атак на коммерческие модели достигает 88%.

Автономные ИИ-агенты — новая угроза

Если генеративный ИИ уже опасен, то следующий уровень — это автономные агенты. В отличие от чат-ботов, такие системы умеют самостоятельно принимать решения, запоминать действия и выполнять цепочки команд без участия человека.

Исследователи выявили проект PromptLock, который позволяет агенту генерировать код на лету и выбирать файлы для копирования или шифрования. В сочетании с даркнет-моделями это открывает дорогу к полностью автоматизированным атакам.

«Мы наблюдаем рост атак с использованием poisoning-техник, когда вредоносный код внедряется в открытые репозитории и способен красть ключи API или данные»

Враджеш Бхавсар, сооснователь компании Operant AI

Масштабирование и социальная инженерия

По словам Таруна Вига, главы компании Innefu Labs, злоумышленники используют ИИ для автоматизации целых кампаний социальной инженерии. Они способны массово создавать индивидуальные фишинговые письма, генерировать deepfake-аудио и видео, адаптировать вымогательские программы под конкретные цели.

Такая персонализация делает атаки особенно опасными: письмо от «коллеги», звонок от «руководителя» или видеообращение «чиновника» выглядят более чем убедительно.

Реакция властей и экспертов

Правоохранительные органы в Индии уже предупреждают о распространении таких инструментов через зашифрованные мессенджеры. При этом эксперты подчёркивают: проблема носит глобальный характер.

«Мы стоим на переломном моменте. Если не выработать строгие меры безопасности, генеративный ИИ превратится в катализатор глобальной волны киберпреступности», — говорит Сундарашвар Кришнамурти, партнёр по кибербезопасности в PwC India.

Что нужно делать

Эксперты едины во мнении: разработчики крупных ИИ-платформ — OpenAI, Anthropic, Google, Meta — обязаны внедрять более жёсткие защитные механизмы. Среди предлагаемых мер:

  • непрерывный мониторинг и «красное командование» (red teaming) для тестирования моделей;
  • внедрение многоуровневой фильтрации и проверки данных;
  • структурированные «испытания на безопасность» перед массовым запуском, аналогичные клиническим испытаниям в фармацевтике.

«ИИ-модели не могут выпускаться в мир без комплексной проверки. Каждая недоработка мгновенно становится инструментом для хакеров», — подчёркивает Виг.

Генеративный ИИ стал не только инструментом прогресса, и даже технологией для запуска VPN, но и мощным оружием в руках киберпреступников. Если вчера атака требовала недель подготовки, сегодня она выполняется за считаные минуты. Угроза носит системный характер и требует совместных усилий разработчиков, властей и экспертов по безопасности.

Пока же, как отмечают специалисты, тёмная сторона ИИ развивается быстрее, чем успевают реагировать регуляторы. И вопрос лишь в том, успеет ли общество поставить защитные барьеры, прежде чем «умные» машины окончательно выйдут из-под контроля.

vpn russia

Наш процесс рецензирования основан на тщательном исследовании и объективности. Все материалы проходят многоуровневую проверку на соответствие высоким стандартам качества и точности, обеспечивая надёжную информацию для принятия обоснованных решений.

Леся – ведущий дата-аналитик в проекте VPRussia, обладает более чем 5-летним опытом в области анализа данных и разработки аналитических решений. С образованием в области математики и компьютерных наук, Леся специализируется на использовании Python, R и SQL для обработки и анализа больших данных. Её ключевые задачи включают сбор и анализ данных о пользователях VPN-сервисов, разработку моделей для оценки их эффективности, а также создание отчетов и визуализаций для команды и руководства.

Оставить комент

Ваш адрес email не будет опубликован. Обязательные поля помечены *