Нейросеть, которая читает ваши мысли (точнее, пароли)
Представьте инструмент, который смотрит на вас и говорит: "Ваш пароль - это имя вашей собаки плюс 123". И оказывается прав. PassLLM - это именно такой инструмент, только вместо магии он использует тонны утекших данных и трансформерные архитектуры последнего поколения. На 2026 год это самый точный AI-угадыватель паролей из открытых решений.
Разработчики обучили модель на 4,7 миллиардах реальных паролей из публичных утечек (RockYou, LinkedIn, Adobe - все знакомые имена). Но фишка не в количестве, а в подходе: PassLLM не просто перебирает словарь, а понимает паттерны человеческого мышления. Как люди создают пароли? Они берут личную информацию (PII) и комбинируют ее по определенным правилам. Этому и научили нейросеть.
Важно: PassLLM - исследовательский инструмент для тестирования безопасности. Использование для реального взлома - уголовное преступление в большинстве стран. Все примеры в статье - для демонстрации уязвимостей.
Что умеет эта штука (и от чего у вас побегут мурашки)
Основная задача - генерация вероятных паролей на основе контекста. Но не просто случайных комбинаций, а тех, которые реальный человек мог бы использовать.
- Контекстная генерация: Даете имя, дату рождения, название компании - получаете 100 самых вероятных паролей для этого человека
- Многоязычная поддержка: Работает с кириллицей, иероглифами, арабской вязью (обучена на международных утечках)
- Понимание культурных паттернов: Знает, что россияне любят добавлять "777", а немцы - "1234"
- Гибридный подход: Комбинирует нейросетевые предсказания с традиционными атаками по словарю
- Локальный запуск: Все вычисления на вашем железе, никаких облаков и слежки
В последней версии (v2.3 на январь 2026) добавили поддержку мультимодальности: модель может анализировать публичные фото из соцсетей (если вы их загрузите) и угадывать пароли по визуальным подсказкам. Видите на фото машину с номером? Возможно, это часть пароля.
Установка: пять минут от скачивания до первого взлома (тестового!)
Разработчики сделали все, чтобы запуск был простым даже для новичков. Но потребуется железо: минимально 8 ГБ ОЗУ, рекомендуется 16+ ГБ и современный CPU/GPU.
1Клонируем и ставим зависимости
git clone https://github.com/security-research/passllm.git
cd passllm
pip install -r requirements.txtТут может быть больно: в requirements.txt засунули полсотни библиотек, включая свежий PyTorch 2.4 и transformers 4.45. Если что-то ломается - проверьте совместимость с вашей версией Python (нужна 3.10+).
2Качаем веса модели
python download_models.py --model passllm-2.3bЕсть три варианта: маленькая (700M параметров) для тестов, средняя (2.3B) для баланса скорости-качества и большая (7B) для максимальной точности. На январь 2026 самая новая - passllm-2.3b-v2, обученная на расширенном датасете.
Веса весят от 2.8 ГБ до 14 ГБ. Если нет места - рассмотрите Ollama как альтернативу для управления моделями, но для PassLLM пока нет официальной поддержки.
3Первый запуск и тест
python generate.py --context "Иван, родился 15.03.1990, работает в Яндекс" --num_passwords 20Вывод будет примерно таким:
1. Ivan1990
2. Ivan150390
3. ЯндексИван
4. Ivan@yandex
5. 15031990ivan
6. Yan1990Ivan
7. Ivan!1503
8. Яндекс1990
9. Ivan#1503
10. 1990ivanYandexВидите паттерн? Имя + дата + компания. Люди предсказуемы, а нейросеть это знает.
С чем сравнивать? (Spoiler: традиционные инструменты проигрывают)
| Инструмент | Тип атаки | Точность | Скорость | Особенность 2026 |
|---|---|---|---|---|
| PassLLM | Контекстная генерация | 34-61% | 100-500/сек | Понимание PII, мультимодальность |
| Hashcat | Брутфорс + словари | 12-25% | Миллионы/сек | Оптимизация под новые GPU |
| John the Ripper | Правила + словари | 15-30% | Тысячи/сек | Поддержка новых хэшей |
| OMEN | Марковские цепи | 20-35% | Десятки тысяч/сек | Стабильность, но без контекста |
Главное преимущество PassLLM - не скорость, а "качество" догадок. Там, где Hashcat будет перебирать миллионы случайных комбинаций, нейросеть сделает сотню осмысленных предположений. И часто этого хватает.
Для комплексного тестирования советую связку: PassLLM для "умных" догадок + Hashcat для тотального брутфорса. Но готовьтесь к нагрузке на систему - такое сочетание съест все ресурсы.
Реальные примеры: как это работает в дикой природе
Возьмем гипотетического сотрудника IT-компании. Публичная информация: Алексей Смирнов, Senior Developer в VK, живет в Москве, в Instagram фото с собакой (лайка по кличке Байкал).
# Пример кода для PassLLM API (упрощенный)
from passllm import PassLLMGenerator
generator = PassLLMGenerator(model="passllm-2.3b")
context = """
Алексей Смирнов
Должность: Senior Developer
Компания: VK
Город: Москва
Питомец: собака Байкал (лайка)
"""
passwords = generator.generate(
context=context,
num_samples=50,
temperature=0.7 # Креативность: от 0.1 (консервативно) до 1.5 (безумно)
)
for i, pwd in enumerate(passwords[:10], 1):
print(f"{i}. {pwd}")Что получим в топе?
- Baikal2025 (собака + текущий год)
- AlexeyVK (имя + компания)
- Smirnov!123 (фамилия + популярный суффикс)
- VKSenior2026 (компания + должность + следующий год)
- BaikalMoscow (собака + город)
Звучит как стереотипно? Именно так и придумывают пароли 80% людей. Нейросеть просто знает статистику лучше нас.
Этические границы: где заканчивается research и начинается crime
Вот что бесит в таких инструментах: они созданы исследователями для улучшения безопасности, но первыми их скачивают скрипт-кидди для атак. Разработчики PassLLM пытались встроить защиту:
- Лицензия строго для исследовательских целей
- Встроенные ватермарки в сгенерированные пароли (можно отследить источник)
- Предупреждения при использовании реальных PII
Но все это обходится за пять минут. Настоящая защита - в законодательстве. На 2026 год в 47 странах есть законы, карающие за использование AI для взлома. В России - статья 272 УК РФ, срок до 7 лет.
Легальные сценарии использования:
| Кто использует | Зачем | Пример |
|---|---|---|
| Пентестеры | Тестирование корпоративных систем | Проверка устойчивости к таргетированным атакам |
| Разработчики софта | Улучшение валидации паролей | Понимание, какие пароли действительно слабые |
| Исследователи безопасности | Анализ новых угроз | Прогнозирование трендов в создании паролей |
| Корпоративные security | Обучение сотрудников | Демонстрация, как легко угадать их пароли |
Если вы разработчик, посмотрите на LLM-Shield - инструменты для защиты PII. Или на SentinLLM для RAG-систем. Знать методы атаки нужно, чтобы лучше защищаться.
Кому подойдет PassLLM (а кому лучше даже не смотреть)
Берите, если:
- Вы профессиональный пентестер с легальными контрактами
- Разрабатываете систему проверки сложности паролей
- Исследуете AI в cybersecurity для академических целей
- Хотите протестировать собственную инфраструктуру (только свою!)
- У вас есть мощный локальный компьютер для запуска больших моделей
Бегите прочь, если:
- Хотите "проверить" пароли друзей или коллег
- Планируете коммерческий взлом (это не шутка, вас поймают)
- У вас слабое железо (модель будет тормозить невыносимо)
- Нет понимания юридических рисков
- Ищете "волшебную кнопку" для быстрого взлома (такой нет)
Для легального тестирования своих паролей лучше использовать традиционные чекеры вроде HaveIBeenPwned или встроенные валидаторы в менеджерах паролей. PassLLM - инструмент для профессионалов, а не для любопытствующих.
Что будет дальше? (Прогноз на 2027-2028)
Тренд очевиден: AI-атаки становятся умнее. Уже сейчас есть наработки по:
- Генерации паролей на основе анализа почерка (да, серьезно)
- Предсказанию паролей по психологическому профилю из соцсетей
- Adversarial attacks против систем блокировки после N неудачных попыток
Защита тоже не стоит на месте. Ожидайте:
- AI-детекторы слабых паролей прямо при создании (уже есть в некоторых корпоративных системах)
- Биометрию + поведенческую аналитику как стандарт (как вы печатаете, как держите телефон)
- Полный отказ от паролей в пользу Passkeys и FIDO2 (но это случится не скоро)
Мой совет: если вы админ или разработчик - скачайте PassLLM, запустите на тестовой среде. Посмотрите, какие пароли он генерирует для вашего публичного профиля. Испугайтесь. И затем внедрите многофакторную аутентификацию везде, где только можно. Потому что через год появятся инструменты, которые будут угадывать не только пароли, но и ответы на контрольные вопросы.
А для обычных пользователей правило простое: менеджер паролей + уникальный сложный пароль на каждый сервис + 2FA. Все остальное - иллюзия безопасности в мире, где нейросети учатся на наших ошибках быстрее, чем мы их совершаем.