Информационная безопасность
БезопасностьИИ

Как вредоносные модели ИИ демократизируют киберпреступность: взлёт WormGPT 4 и KawaiiGPT

Ландшафт кибербезопасности переживает тектонический сдвиг: злоумышленники используют искусственный интеллект, чтобы выровнять «игровое поле» в киберпреступности. В то время как крупные ИИ-платформы вроде ChatGPT и Claude внедряют строгие защитные механизмы, чтобы предотвратить злоупотребления, появилась новая генерация неограниченных больших языковых моделей (LLM), созданных специально для содействия преступной деятельности. Эти «тёмные LLM» устраняют технические барьеры, которые раньше отделяли новичков в киберпреступности от сложных атак, и создают беспрецедентные вызовы для специалистов по кибербезопасности по всему миру.


Тёмная сторона ИИ-инноваций

Обычные ИИ-системы, работающие в легальном поле, оснащаются обширными мерами безопасности. Такие компании, как OpenAI, Anthropic и Google, вложили миллионы в разработку защитных механизмов, которые не позволяют их моделям генерировать вредоносный контент, включая инструкции по созданию оружия, помощь в совершении суицида или содействие киберпреступной деятельности. Однако эти защитные меры запустили игру в «кошки-мышки» между командами безопасности и злоумышленниками.

Вместо того чтобы бесконечно пытаться обходить ограничения с помощью джейлбрейков и хитрой промпт-инженерии, продвинутые злоумышленники выбрали иной путь: создавать полностью неограниченные LLM с нуля. Эти модели работают без каких-либо этических рамок и функционируют как мощные ассистенты для киберпреступников с самым разным уровнем навыков.

Ключевой факт: согласно исследованиям в области кибербезопасности, среднее время, необходимое для разработки функционального вредоносного ПО, сократилось с нескольких недель до считаных часов при помощи ИИ. То, что раньше требовало серьёзных знаний программирования, теперь можно сделать через обычный диалог с моделью.


Вредоносные модели: WormGPT 4 и KawaiiGPT

Исследователи из Unit 42 компании Palo Alto Networks недавно провели детальный анализ двух заметных вредоносных LLM, которые ярко иллюстрируют эту тревожную тенденцию: WormGPT 4 и KawaiiGPT. Эти платформы представляют разные подходы к «демократизации» киберпреступных инструментов, но обе создают серьёзные угрозы цифровой безопасности.

Сравнение возможностей

ХарактеристикаWormGPT 4KawaiiGPT
Модель монетизацииПлатный: $50/месяц или $220 за пожизненную лицензиюБесплатный, поддерживается сообществом
ПредшественникWormGPT (прекращён в сентябре 2025 года)Нет — самостоятельная разработка
Основные возможностиПолноценное создание вымогательского ПО, инструменты шифрования, утечка данных, сложные письма с требованиями выкупаФишинговые скрипты, контент для социальной инженерии, базовые автоматизированные атаки
Уровень сложностиПродвинутый — вредоносное ПО «промышленного качества»Средний — эффективно, но менее отполировано
Платформа распространенияTelegram (сотни подписчиков)Telegram (сотни подписчиков)
Целевые пользователиСерьёзные киберпреступники, готовые платитьНачинающие хакеры и «скрипт-кидди»
Оценка качестваВысококачественные, функциональные компоненты вредоносного ПОНадёжен для фишинга, ограничен для сложных атак

WormGPT 4: премиальный ассистент киберпреступников

WormGPT 4 представляет собой коммерческую эволюцию вредоносного ИИ. Будучи наследником оригинальной платформы WormGPT, которая была закрыта в сентябре 2025 года, эта версия предлагает существенно расширенные возможности, вызывающие серьёзную тревогу у экспертов по безопасности. Структура цен — $50 в месяц или единоразовый платёж $220 за пожизненный доступ — позиционирует его как профессиональный инструмент, а не любительский эксперимент.

Во время анализа исследователям Unit 42 удалось с помощью WormGPT 4 создать несколько полностью функциональных вредоносных компонентов:

  • Шифрующее вредоносное ПО: полноценные шифровальщики-вымогатели, способные блокировать файлы жертвы с использованием «военного» уровня шифрования.
  • Инструменты эксфильтрации данных: приложения, предназначенные для незаметного извлечения конфиденциальной информации с компрометированных систем.
  • Коммуникации по выкупу: психологически выверенные письма с требованиями выкупа, которые исследователи охарактеризовали как «леденящие кровь и эффективные».

Способность платформы генерировать готовое к боевому применению вредоносное ПО представляет собой качественный скачок в доступности таких инструментов. Традиционная разработка вредоносного ПО требует глубоких знаний языков программирования, внутреннего устройства операционных систем, криптографии и сетевых протоколов. WormGPT 4 скрывает всю эту сложность, позволяя пользователю просто описать свои цели на естественном языке и получить в ответ рабочий код.


KawaiiGPT: альтернативный комьюнити-подход

Хотя KawaiiGPT менее продвинут, чем платный аналог, он закрывает важный сегмент в экосистеме киберпреступности. Как бесплатная платформа, поддерживаемая сообществом, она ещё сильнее снижает барьер входа, не требуя от начинающих злоумышленников никаких финансовых вложений.

По оценке Unit 42, KawaiiGPT особенно эффективен в следующем:

  • Создание убедительных фишинговых писем и сообщений, которые обходят спам-фильтры.
  • Генерация сценариев социальной инженерии, адаптированных под конкретные цели.
  • Автоматизация техник бокового перемещения с помощью готового к исполнению кода.
  • Создание вариаций атак для обхода сигнатурных средств обнаружения.

Комьюнити-подход означает, что KawaiiGPT постоянно эволюционирует по мере того, как пользователи делятся успешными техниками и улучшениями модели. Этот совместный подход к киберпреступности по сути зеркалирует легитимную модель разработки open-source ПО, создавая тревожную параллель между этическими и преступными инновациями.


Сравнение возможностей: что умеют эти модели

Тип атакиУровень сложностиWormGPT 4KawaiiGPTВремя традиционной разработкиВремя с ИИ
Фишинговые кампанииНизкий✓ Отлично✓ Отлично2–4 часа5–10 минут
Таргетированный фишингСредний✓ Отлично✓ Хорошо4–8 часов10–20 минут
Крадёж учётных данныхСредний✓ Отлично✓ Хорошо1–2 дня30–60 минут
Шифровальщики-вымогателиВысокий✓ Отлично✗ Ограничено1–3 недели2–4 часа
Инструменты эксфильтрацииВысокий✓ Отлично✗ Только базовый уровень1–2 недели3–6 часов
Скрипты для бокового движенияВысокий✓ Отлично✓ Хорошо3–5 дней1–2 часа
Разработка эксплойтовОчень высокий✓ Ассистирует✗ Не умеетНедели–месяцыДни–недели

Критически важное наблюдение: сокращение времени, показанное в таблице, отражает фундаментальный сдвиг в экономике киберпреступности. Задачи, которые раньше требовали команды опытных разработчиков, теперь может выполнить один человек с минимальными техническими знаниями за считанные часы.


Telegram как сеть распространения

И WormGPT 4, и KawaiiGPT используют Telegram как основную платформу распространения и общения. Этот мессенджер стал центром киберпреступной активности по нескольким причинам:

  • Сквозное шифрование: переписка скрыта от правоохранительных органов.
  • Система каналов: позволяет организовать широкое однонаправленное распространение инструментов и обновлений.
  • Интеграция ботов: даёт возможность напрямую встраивать ИИ-модели в интерфейс чата.
  • Минимальная модерация: слабый контроль за преступным контентом по сравнению с другими платформами.
  • Кроссплатформенность: доступность на мобильных и десктопных устройствах без ограничений.

Согласно исследованию Unit 42, обе вредоносные LLM поддерживают активные сообщества с сотнями подписчиков. Эти каналы выполняют сразу несколько функций: распространение доступа к моделям, обмен успешными техниками атак, техническая поддержка и создание «сообщества» среди киберпреступников.


Экономика киберпреступности на базе ИИ

Ценовая модель WormGPT 4 показывает, что за разработкой вредоносного ИИ стоит продуманная бизнес-логика. При цене $50 в месяц или $220 пожизненно инструмент сопоставим по стоимости с легальным ПО, оставаясь при этом доступным для серьёзных злоумышленников.

Модель монетизации

Компонент доходаДеталиВлияние
Месячная подписка$50/месяцПостоянный денежный поток, низкий порог входа
Пожизненная лицензия$220 единоразовоПривлекает долгосрочных пользователей, быстрый приток капитала
Оценочная база пользователейСотни активных подписчиковПотенциальный ежемесячный доход: $15 000–$50 000+
Затраты на разработкуGPU-ресурсы, обучение моделей, инфраструктураОценка: $5 000–$20 000 в месяц
МаржаВысокая после первоначальной разработкиУстойчивый преступный бизнес
Окупаемость для пользователейОдин успешный инцидент может принести $10 000+Инвестиция $220 окупается одним результативным взломом

Инсайт отрасли: средняя выплата по ransomware-атакам в 2024 году превысила $1,5 млн для корпоративных жертв. Для киберпреступника вложение в $220 за доступ к WormGPT 4 — ничтожный расход при потенциальной прибыли в шесть–семь цифр.


Технические возможности и оценка угроз

Технические достижения, продемонстрированные этими вредоносными LLM, представляют собой серьёзный скачок в области «адверсариального» ИИ. Анализ Unit 42 выявил несколько особо тревожных возможностей:

  • Создание вымогательского ПО: WormGPT 4 может генерировать полностью автономные пакеты ransomware, включая процедуры шифрования файлов, системы управления ключами и протоколы коммуникации для получения выкупа. Используемые алгоритмы шифрования криптографически корректны, что делает восстановление данных без оплаты выкупа практически невозможным.
  • Техники уклонения от обнаружения: обе модели демонстрируют знание тактик обхода антивирусной защиты, включая обфускацию кода, полиморфное поведение и избежание сигнатурного детекта. Это позволяет сгенерированному вредоносному ПО гораздо эффективнее обходить традиционные решения безопасности.
  • Оптимизация социальной инженерии: модели превосходно справляются с созданием психологически манипулятивного контента. Фишинговые сообщения, генерируемые этими инструментами, используют принципы убеждения, триггеры срочности и эксплуатации авторитета, что существенно увеличивает их успешность по сравнению с традиционными массовыми фишинговыми рассылками.
  • Качество кода: вопреки распространённому мнению о том, что сгенерированный ИИ код будет нестабильным и «глючным», Unit 42 выяснила, что WormGPT 4 производит функциональный, хорошо структурированный код, который надёжно работает в целевых средах.

Радикальное снижение порога входа

Возможно, самый тревожный аспект вредоносных LLM — это то, насколько сильно они снижают требования к навыкам для проведения сложных кибератак. Заключение Unit 42 подчёркивает это: «порог входа в киберпреступность никогда ещё не был таким низким».

Сравнение требований к навыкам

Требуемый навыкТрадиционная киберпреступностьКиберпреступность с ИИ
Знание программированияПродвинутое (несколько языков)Не требуется
Понимание криптографииСредний–высокий уровеньНе требуется
Понимание сетевых протоколовПродвинутыйБазовый уровень желателен
Знание внутреннего устройства ОСПродвинутыйНе требуется
Навыки социальной инженерииВрожденный талант или долгий опытГотовые ИИ-шаблоны
Кривая обученияМесяцы–годыЧасы–дни
Успешность атак новичков5–15 %40–60 %

Такое «демократизирование» киберпреступных инструментов ведёт к экспоненциальному росту угрозы. Ранее число людей, способных реализовать сложные атаки, ограничивалось необходимостью высокого технического уровня. Вредоносные LLM снимают это ограничение, потенциально превращая миллионы технически неподготовленных пользователей в достаточно опасных атакующих.


Более широкая экосистема вредоносного ИИ

Хотя WormGPT 4 и KawaiiGPT — хорошо задокументированные примеры, исследователи Unit 42 признают, что это лишь вершина айсберга. В подпольной киберпреступной экономике существует множество аналогичных инструментов, каждый из которых нацелен на определённые ниши или предлагает специализированные возможности.

Картина рынка: исследователи по кибербезопасности выявили по крайней мере 12–15 различных вредоносных LLM-платформ по состоянию на конец 2024 года. Они варьируются от универсальных «криминальных ИИ-ассистентов» до специализированных моделей, заточенных под конкретные типы атак: Business Email Compromise (BEC), криптоджеккинг, DDoS и др.

Активная разработка и поддержка этих платформ говорит о процветающем рынке, где спрос достаточен, чтобы оправдать постоянные инвестиции. В новых версиях появляются такие функции, как:

  • Мультиязычная поддержка для международных операций.
  • Интеграция с существующими хакинг-инструментами и фреймворками.
  • Автоматизированное сканирование уязвимостей и их эксплуатация.
  • Разведка целей и сбор информации.
  • Обфускация криптовалютных транзакций.
  • Создание защищённых каналов связи.

Проблемы обнаружения и защиты

Появление вредоносных LLM создаёт уникальные проблемы для защитников. Традиционные подходы к безопасности фокусируются на обнаружении сигнатур и паттернов кода, однако ИИ-генерируемое вредоносное ПО может существенно различаться между экземплярами, делая сигнатурный подход менее эффективным.

Стратегии защиты должны эволюционировать, чтобы соответствовать новой реальности:

1. Поведенческий анализ

Вместо опоры на статические сигнатуры системы безопасности должны концентрироваться на обнаружении вредоносного поведения, независимо от реализации кода. Такой подход остаётся эффективным против ИИ-генерируемых угроз, поскольку базовые действия (шифрование, эксфильтрация, повышение привилегий) неизбежно проявляются.

2. Укрепление почтовой безопасности

Поскольку вредоносные LLM особенно сильны в генерации фишингового контента, организации должны внедрять продвинутые фильтры, анализирующие:

  • лингвистические паттерны,
  • репутацию отправителя,
  • контекстные аномалии,

а не только ключевые слова.

3. Обучение пользователей

По мере того как фишинг, сгенерированный ИИ, становится всё более правдоподобным и персонализированным, человеческая внимательность остаётся ключевым рубежом защиты. Обучающие программы должны акцентировать внимание на:

  • скептическом отношении к неожиданным запросам,
  • проверке личности отправителя по альтернативным каналам,
  • узнаваемости приёмов социальной инженерии.

4. Архитектура Zero Trust

Исходя из предположения, что часть атак всё же будет успешна, организации должны внедрять принципы нулевого доверия, ограничивая боковое перемещение и локализуя взлом до того, как он приведёт к масштабному ущербу.


Правовые и этические последствия

Разработка и распространение вредоносных LLM поднимает сложные юридические вопросы. Хотя создание и распространение вредоносного ПО уже давно криминализировано в большинстве юрисдикций, компонент ИИ добавляет неопределённость.

  • Несут ли разработчики WormGPT 4 ответственность за преступления, совершённые с использованием их инструмента?
  • Какова степень ответственности облачных провайдеров, если их инфраструктура хостит вредоносные модели?

Кроме того, исследовательское сообщество сталкивается с этическими дилеммами. Анализ Unit 42 требовал взаимодействия с этими платформами и потенциального создания примеров вредоносного кода. С одной стороны, такие исследования служат общественному благу, выявляя угрозы; с другой — существует риск, что подробные отчёты могут стать «дорожной картой» для начинающих злоумышленников.


Вектор будущего развития

Текущие тенденции указывают на то, что ландшафт вредоносного ИИ будет очень быстро эволюционировать. В ближайшем будущем вероятны следующие сценарии:

  • Рост сложности: по мере улучшения базовых моделей ИИ будут совершенствоваться и вредоносные реализации. Будущие версии могут включать автоматический поиск zero-day, адаптивные техники уклонения, ИИ-управляемые системы командования и контроля (C2).
  • Специализация: рынок может раздробиться на набор специализированных инструментов, нацеленных на конкретные отрасли, векторы атак или регуляторные режимы. Можно ожидать появления LLM, заточенных специально под атаки на медицину, финансы или критическую инфраструктуру.
  • Гонка вооружений защитного ИИ: вендоры средств безопасности будут всё активнее внедрять собственные ИИ-системы для обнаружения и противодействия ИИ-генерируемым угрозам, что приведёт к автоматизированной гонке вооружений между атакующим и защитным ИИ.
  • Регуляторный ответ: правительства попытаются ужесточить регулирование разработки ИИ, однако реальные меры будут сложны в применении из-за глобального характера киберпреступности и распределённой разработки ИИ.

Прогноз: эксперты по кибербезопасности ожидают, что к 2026 году более 70 % кибератак будут включать в себя участие ИИ в той или иной форме. Это фундаментально меняет ландшафт угроз и требует соответствующей эволюции защитных стратегий.


Ключевые выводы для организаций

Для компаний и организаций, стремящихся защититься в условиях быстро меняющейся обстановки угроз, вырисовывается несколько приоритетов:

  1. Инвестиции в продвинутые средства детекта
    Традиционные антивирусы и сигнатурные системы скоро окажутся недостаточными. Нужно внедрять поведенческий анализ, системы обнаружения на основе машинного обучения и платформы XDR (Extended Detection and Response).
  2. Усиление почтовой безопасности
    С учётом эффективности ИИ-генерируемого фишинга, защита почты должна стать приоритетом. Внедряйте Advanced Threat Protection, повсеместно включайте многофакторную аутентификацию и устанавливайте чёткие процедуры проверки любых чувствительных запросов.
  3. Непрерывное обучение персонала
    Программы повышения осведомлённости должны адаптироваться под ИИ-угрозы. Сотрудники должны понимать, что фишинговые сообщения будут всё более похожи на легитимные и персональные.
  4. Планирование реагирования на инциденты
    Нужно исходить из того, что инциденты всё равно будут, и заранее готовить сценарии. Разрабатывайте, тестируйте и регулярно обновляйте планы реагирования, включающие сценарии атак с участием ИИ.
  5. Разведка угроз
    Подписывайтесь на сервисы threat intelligence, которые мониторят подпольную киберпреступную экосистему, включая развитие вредоносного ИИ, чтобы своевременно узнавать о новых инструментах и тенденциях.

Заключение

Появление вредоносных LLM вроде WormGPT 4 и KawaiiGPT — это рубежный момент в истории кибербезопасности. Демократизируя доступ к сложным возможностям атак, эти инструменты радикально меняют ландшафт угроз: резко расширяют пул потенциальных атакующих и одновременно сокращают время и экспертизу, необходимые для проведения разрушительных операций.

Исследование Unit 42 подтверждает, что это не теоретические разработки, а реальные инструменты, уже применяемые в атаках. С сотнями подписчиков в Telegram и продемонстрированными возможностями — от убедительных фишинговых кампаний до полноценных вымогательских программ — вредоносные LLM прочно закрепились как постоянный элемент киберпреступной экосистемы.

Порог входа в киберпреступность действительно никогда не был ниже, что создаёт для организаций срочную необходимость перестроить свои подходы к безопасности. Традиционные средства, рассчитанные на эпоху, когда атакующим требовались серьёзные технические навыки, должны быть дополнены стратегиями, учитывающими реалии ИИ, и исходить из того, что у противника есть доступ к мощной автоматизации и интеллектуальным инструментам.

По мере того как легальный ИИ продолжает развиваться, его вредоносные аналоги тоже будут становиться всё более изощрёнными. Сообщество кибербезопасности обязано оставаться бдительным, адаптивным и проактивным в разработке контрмер. Будущее цифровой безопасности всё больше будет определяться гонкой между наступательным и оборонительным ИИ, где люди-эксперты по безопасности будут выступать стратегами и дирижёрами в этом автоматизированном поле боя.

Организации, которые вовремя осознают этот сдвиг и инвестируют в современные архитектуры безопасности, непрерывное обучение и адаптивные стратегии защиты, будут лучше всего подготовлены к новой эпохе ИИ-поддерживаемой киберпреступности. Те же, кто не успеет адаптироваться, рискуют оказаться жертвами быстро растущей армии атакующих, вооружённых инструментами, которые ещё несколько лет назад выглядели бы как научная фантастика.