PromptLock: первый ИИ-вирус-шифровальщик на GPT-OSS-20B | Анализ | AiManual
AiManual Logo Ai / Manual.
12 Фев 2026 Новости

Первый ИИ-вирус PromptLock: как шифровальщик на gpt-oss-20b меняет правила игры

Разбор PromptLock — первого шифровальщика, созданного ИИ. Как работает атака на gpt-oss-20b за <$1, почему это новая эра угроз и как защититься. Актуально на 12

Тихо, но метко: как ИИ научился шифровать ваши файлы за доллар

Исследователи ESET только что выложили отчет, от которого у всей индустрии кибербезопасности свело желудок. Они обнаружили в дикой природе PromptLock. Не очередной скрипт-вымогатель, а первый полноценный вирус-шифровальщик, который создал... другой вирус. Точнее, большая языковая модель.

Вот цифры, которые не дадут вам спать сегодня: стоимость одной атаки — меньше доллара. Потребление — около 23 000 токенов. Инструмент — открытая модель gpt-oss-20b, последняя стабильная версия на февраль 2026 года. Злоумышленнику не нужны глубокие познания в криптографии. Достаточно правильно составленного промпта.

Главное не в том, что атака дешевая. А в том, что она тиражируемая. Один рабочий промпт для gpt-oss-20b — и любой школьник может запустить свою кампанию по вымогательству. Кибербезопасность вошла в эпоху массового производства.

Механика бедствия: от промпта до шифрования

Как это работает? Примитивно до гениальности. Атакующий загружает в gpt-oss-20b специально сконструированный запрос. Нечто вроде: "Сгенерируй код на Python, который рекурсивно обходит директорию /home/user/documents, находит файлы с расширениями .docx, .pdf, .xlsx, шифрует их алгоритмом AES-256, а затем оставляет текстовый файл с требованием выкупа".

Модель, обученная на тоннах открытого кода, послушно выдает рабочий скрипт. Со всеми импортами, обработкой ошибок и даже комментариями. Промпт инженер — новая профессия хакера. Забудьте про нуле-day уязвимости. Теперь уязвимость — это сам ИИ, готовый помочь любому, кто задаст правильный вопрос.

💡
Интересный парадокс: gpt-oss-20b, как и многие современные LLM, имеет встроенные фильтры безопасности. Они должны блокировать генерацию вредоносного кода. Но, как показала практика, их можно обойти с помощью тех же prompt injection атак. Получается замкнутый круг: ИИ защищает от угроз, которые сам же и создает. Подробнее об этой фундаментальной проблеме мы писали в материале «Криптография против ИИ: почему фильтры безопасности LLM — это фундаментально сломанная идея».

Зачем усложнять? Простота — новый тренд атак

Раньше создание ransomware требовало команды опытных разработчиков. Теперь — аккаунта в API-сервисе с открытой LLM и пары долларов на счету. PromptLock не использует сложные эксплойты. Он использует доверчивость.

И это только начало. Если модель может написать шифровальщик, что мешает ей создать фишинговое письмо, идеально подделывающее стиль вашего босса? Или скрипт для атаки на инфраструктуру? Проблема глубже, чем кажется.

Компонент атакиРоль ИИ (gpt-oss-20b)Классическая атака
Поиск уязвимостейАнализ кода и генерация эксплойта по описаниюРучной реверс-инжиниринг, фаззинг
Написание вредоносной полезной нагрузкиГенерация готового скрипта шифровальщикаНаписание кода вручную или использование готовых конструкторов
Социальная инженерияГенерация убедительных писем и сообщений для жертвыШаблонные письма, кустарные переводы

Что делать? Защита в эпоху генеративных угроз

Сидеть и ждать, пока производители моделей что-то придумают, — стратегия проигрышная. Защита должна быть многослойной и параноидальной.

  • Изоляция и аудит. Любой код, сгенерированный ИИ (даже для внутренних нужд), должен выполняться в песочнице. Никаких прямых вызовов системных команд.
  • Мониторинг prompt-логов. Если вы используете LLM в продакшене, вы должны знать, какие запросы к ним поступают. Атаки вроде Man-in-the-Prompt крадут или подменяют их. Нужны инструменты вроде Vigil для отслеживания аномалий.
  • Белые списки и контроль целостности. Запретите выполнение неподписанных скриптов. Регулярно создавайте бэкапы. Это банально, но PromptLock атакует именно те файлы, которые редко бэкапят.
  • Используйте специализированные щиты. Для разработчиков, которые интегрируют LLM, уже есть библиотеки вроде PromptSec, добавляющие дополнительный уровень валидации входящих промптов. Подробные методики есть в практическом руководстве по защите self-hosted LLM.

Самое главное — изменить мышление. Prompt injection — это не баг, это фича архитектуры современных LLM. Бороться с этим бесполезно. Нужно строить системы, которые учитывают, что ИИ может быть скомпрометирован в любой момент.

Что будет дальше? (Спойлер: ничего хорошего)

PromptLock — это первая ласточка. Очень неуклюжая, заметная. Следующие версии будут умнее. Они научатся самостоятельно искать цели в сети, адаптировать код под конкретную ОС или даже использовать уязвимости в самих runtime-средах для LLM, чтобы скрыть следы.

Эксперты ESET прогнозируют, что к концу 2026 года мы увидим первую полностью автономную кибер-кампанию, от разведки до вымогательства, спланированную и исполненную ИИ-агентом. Звучит как фантастика? Всего два года назад так же звучал и PromptLock.

Мой совет? Не ждите. Проанализируйте свои системы сегодня. Где у вас работает генеративный ИИ? Кто имеет к нему доступ? Что он может сделать с этими правами? Ответы на эти вопросы — единственный способ не стать статистикой в следующем отчете.