Гонка, которую мы уже проигрываем
Вчера коллега из финансового сектора прислал голосовое сообщение. Голос был его, интонации идеальны. Он срочно просил подтвердить транзакцию. Это был дипфейк. Созданный за 12 секунд на украденном 3-секундном образце из корпоративного Zoom.
2026 год не принес новых законов физики. Он просто сделал старые угрозы дешевыми, быстрыми и автономными. Пока регуляторы спорят об этике GPT-5, хакеры уже год используют теневые LLM — незарегистрированные, дообученные на утечках модели, которые не оставляют логов.
По данным Group-IB за январь 2026, 67% успешных атак на корпорации использовали хотя бы один ИИ-компонент. Год назад это было 23%.
Дипфейки 2026: дешевле чашки кофе
Забудьте про громоздкие нейросети 2023 года. Сегодняшние фреймворки вроде DeepReal 4.2 или FaceSwap-XL генерируют видео в реальном времени на ноутбуке средней руки. Цена? Открытый исходный код или $5 в месяц на теневом форуме.
| Параметр | 2023 год | 2026 год (на 04.02.2026) |
|---|---|---|
| Время генерации 1 мин видео | 4-6 часов | 12-45 секунд |
| Необходимый образец голоса | 30+ минут | 3-5 секунд |
| Стоимость атаки (B2B фишинг) | ~$500 | ~$1.5 (автоматизированный пакет) |
Новый тренд — дипфейк-ротация. Система генерирует сотни вариантов одного видео с разными артефактами, чтобы обойти детекторы на основе GPT-4o или Gemini Ultra 3.0. (Детекторы, кстати, отстают. Их точность упала с 98% до 71% за последние 18 месяцев).
Теневой ИИ: заводы по производству зла
OpenAI и Anthropic ужесточили политику. Хакеры просто не стали их использовать. Вместо этого — локальные Mistral-8x22B, дообученные на 600 ГБ утекших корпоративных переписок, или кастомные версии Llama 3.2, которые учатся на провальных атаках, чтобы улучшить следующую.
Эти модели живут в заброшенных облачных аккаунтах, купленных за крипту. Они не выходят в публичный интернет. Их API-ключи стоят 0.0001 BTC за 100k запросов. И они пишут фишинг-письма, которые обходят все существующие фильтры.
Фишинг-вишинг: когда звонит твой начальник (но это не он)
Голосовой фишинг (вишинг) теперь работает в промышленных масштабах. Сценарий:
- ИИ-сканер ищет в соцсетях сотрудников с доступом к финансам.
- Теневой LLM на основе Claude 3.5 Sonnet (нелегально форкнутый) анализирует их стиль общения, пишет скрипт.
- Генератор голоса, обученный на записях с корпоративных вебинаров, звонит жертве.
- В реальном времени система анализирует голос жертвы на предмет неуверенности и адаптирует аргументацию.
Успешность таких атак в Q4 2025, по данным CISA, достигла 34%. Люди верят голосу больше, чем тексту. Особенно когда "начальник" в панике говорит о срыве контракта.
Автоматизация атак: один агент против SOC
Здесь мы видим прямую эволюцию из нашей прошлой статьи про агентный ИИ в кибератаках. Но за год тренд ускорился. Если тогда агент взламывал сеть за 47 минут, сегодня AllFix — гибридный вредонос — делает это за 15.
AllFix (название от операции, которую мы расследовали в январе) — это не один файл. Это роящаяся система микросервисов:
- Разведчик картографирует сеть, используя уязвимости в IoT-устройствах (камеры, принтеры).
- Анализатор ищет необновленные сервисы, сравнивая с базой 0-day уязвимостей, которая обновляется каждые 4 часа.
- Генератор эксплойтов создает персонализированный код для конкретной версии ПО.
- Уборщик сразу шифрует или подменяет логи, оставляя ложные следы.
Человеческое вмешательство? Только на этапе загрузки первого модуля через фишинг-письмо с легальным фреймворком. Дальше — автономный режим.
Главная проблема 2026: ИИ для атак развивается быстрее, чем ИИ для защиты. Бюджеты хакеров не тратятся на compliance, аудит и ethical guidelines. Они тратятся на вычислительную мощность. И выигрывают.
Что делать? (Спойлер: старые методы не работают)
Многофакторная аутентификация? AllFix умеет перехватывать SMS через уязвимости в SS7. Обучение сотрудников? Дипфейк обманывает даже директора по безопасности. Патчи? Агент использует 0-day, о которых вы не знаете.
Единственный работающий вектор — это скорость обнаружения аномалий. Не сигнатур, а аномалий в поведении. Если ИИ-агент атакует за 15 минут, ваша система должна обнаружить его за 30 секунд. Не по правилам, а по машинному обучению, которое изучает нормальный трафик вашей сети и видит, когда API-запросы идут в странной последовательности.
И да, защита теперь тоже должна быть агентной. Автономные системы, которые изолируют сегмент сети при малейшем подозрении, без ожидания одобрения человека. Как в той же статье про защиту от промпт-инъекций, но на уровне всей инфраструктуры.
Прогноз на 2027: симбиоз или поражение?
К концу 2026 мы увидим первые полноценные ИИ-противостояния. Агент атаки против агента защиты, сражающиеся на частотах обновления кэша процессора. Человек будет наблюдателем, а не участником.
Парадокс в том, что защита может выиграть только одним способом: украсть технологии у нападающих. Использовать те же теневые LLM для генерации тренировочных данных. Те же автономные агенты для проактивного поиска уязвимостей. Перестать играть по правилам, которые пишутся для мира 2020 года.
Совет на сегодня? Если ваш SOC до сих пор полагается на правила, написанные людьми, вы уже мишень. Начните с малого: разверните открытую модель типа Qwen2.5-32B и дайте ей проанализировать ваши логи за последнюю неделю. Попросите найти аномалии, которые не видны человеку. Это займет день. И покажет вам дыры, о которых вы боялись подумать.
И помните: в 2026 году самый опасный хакер — это не человек в капюшоне. Это несколько строк кода, которые учатся быстрее, чем ваша команда.