Проверка фактов в LLM: кейс с Qwen Long и системными промптами | Ошибки на горячих новостях | AiManual
AiManual Logo Ai / Manual.
03 Янв 2026 Гайд

Симуляция реальности: как Qwen Long назвал мир фейком и что это говорит о проверке фактов

Технический разбор: почему LLM ошибаются на экстремальных новостях. Системные промпты Qwen Long, правила Evidence Authority и Hoax Classification. Практический

Когда нейросеть объявляет реальность симуляцией

Вчера вечером Qwen Long 1.5 - та самая модель, что должна проверять факты - выдала классификацию, от которой волосы встают дыбом. Свежая новость о политическом скандале, подтвержденная тремя новостными агентствами, получила метку "Simulated Reality Hoax". Симуляция реальности. Фейк, созданный для манипуляции общественным мнением.

Проблема не в конкретной модели. Проблема в том, как все LLM ломаются на горячих новостях. Когда факты еще не устоялись, когда источники противоречат друг другу, когда эмоции зашкаливают - нейросети теряют почву под ногами.

Факт: Qwen Long встроена в десятки систем мониторинга новостей. Ее выводы влияют на ранжирование контента в агрегаторах. Когда она ошибается - ошибка множится экспоненциально.

Что сломалось внутри системного промпта

Давайте заглянем под капот. Системный промпт Qwen Long для проверки фактов выглядит как инженерный шедевр. 15 правил Evidence Authority. 8 уровней Hoax Classification. Матрица доверия к источникам. Все по науке.

# Упрощенная версия системного промпта Qwen Long
system_prompt = """
Вы - система проверки фактов. Правила:
1. Evidence Authority Level 1-15 (1 - слухи, 15 - судебные документы)
2. Hoax Classification:
   - Misinformation (непреднамеренная ошибка)
   - Disinformation (целенаправленный обман)
   - Simulated Reality Hoax (искусственно созданная реальность)
   - Context Manipulation (манипуляция контекстом)
3. Source Trust Matrix:
   - Government sources: 8-12/15
   - Major news: 7-10/15
   - Social media: 1-3/15
"""

Звучит солидно. Работает на ура на исторических данных. Но дайте ей свежую новость - и система трещит по швам.

💡
Системные промпты - это статические правила в динамичном мире. Когда появляется новость, которая не вписывается в матрицу, LLM пытается втиснуть ее в существующие категории. Даже если для этого нужно назвать реальность симуляцией.

Evidence Authority: когда правила становятся проблемой

Правило №4 в Evidence Authority гласит: "Новость без официального подтверждения правительством получает максимальный штраф -3 к Authority Level". Логично? В теории да. На практике - катастрофа.

Тип новости Evidence Authority до штрафа После штрафа Результат
Скандал с участием чиновника 9/15 (расследование СМИ) 6/15 Попадает в зону "требует проверки"
Утечка документов 11/15 (первичные документы) 8/15 Скатывается к "неподтвержденным данным"

Горячие новости по определению не имеют официальных подтверждений. Правительство молчит. Чиновники отмалчиваются. А нейросеть наказывает новость за то, что она... новая.

Это та самая проблема "Молчаливого ученого" в действии. Когда отсутствие данных LLM воспринимает как свидетельство против факта.

Hoax Classification: как категории создают реальность

"Simulated Reality Hoax" - самая коварная категория в классификации Qwen Long. По задумке, она для глубоких фейков, где создается альтернативная реальность. Вроде фейковых видео с политиками.

Но алгоритм срабатывает иначе. Если новость:

  • Имеет высокую эмоциональную нагрузку
  • Содержит элементы, которые "слишком идеально" подтверждают чью-то позицию
  • Поступает в момент политической напряженности
  • Не имеет прямых официальных опровержений (потому что их еще не успели сделать)

...она попадает в "Simulated Reality". Фактически, чем громче скандал - тем выше вероятность, что LLM объявит его симуляцией.

Это не баг, а фундаментальное свойство. LLM обучены на исторических данных, где скандалы часто оказываются преувеличенными. Модель экстраполирует: "громкий скандал = вероятный фейк". Даже когда скандал реальный.

Как это фиксить: три уровня исправлений

1 Экстренный патч: временные правила для горячих новостей

Добавьте в системный промпт триггеры:

# Дополнение к системному промпту
hot_news_rules = """
Если новость:
- Менее 24 часов с момента публикации
- Упоминается в 3+ крупных СМИ
- Содержит слова "скандал", "утечка", "расследование"

ТО:
- Не применять штраф за отсутствие официального подтверждения
- Максимальный Evidence Authority = 10 (вместо 15)
- Отложить финальную классификацию на 48 часов
"""

Это не идеально, но останавливает самые вопиющие ошибки. Модель перестает спешить с выводами.

2 Архитектурный фикс: цепочки классификации

Вместо одного прохода через все правила - делайте каскад:

classification_chain = [
    "Определить: новость или мнение",
    "Проверить: есть ли первичные документы",
    "Оценить: согласуются ли источники",
    "ТОЛЬКО ПОСЛЕ ЭТОГО: применять Hoax Classification"
]

Каждый шаг - отдельный вызов LLM с узкой задачей. Да, это медленнее. Но точнее в разы. Как в тестировании недетерминированных LLM - изолируйте задачи.

3 Радикальное решение: убрать категорию "Simulated Reality"

Звучит еретически. Но подумайте: когда в последний раз настоящий "Simulated Reality Hoax" попадал в крупные СМИ? Deepfakes с политиками? Их опровергают за часы. Фейковые катастрофы? Разоблачают за сутки.

Категория создана для гипотетических угроз, а используется для реальных скандалов. Уберите ее - и модель перестанет видеть симуляции там, где их нет.

Что делать, если ваша LLM уже накосячила

Допустим, Qwen Long в вашей системе уже пометила реальную новость как фейк. Паника? Нет. Алгоритм исправления:

  1. Немедленный ручной оверрайд: администратор помечает новость как "требует перепроверки"
  2. Сбор дополнительных источников: добавьте 2-3 новых подтверждения в контекст LLM
  3. Перезапуск классификации с увеличенным context window (модель увидит больше данных)
  4. Анализ ошибки: какие именно правила сработали неверно? Запишите в лог
  5. Коррекция промпта: добавьте исключение для этого типа новостей
💡
Не пытайтесь исправить LLM "на лету" изменением промпта в реальном времени. Создайте параллельный контур проверки с упрощенными правилами, сравните результаты, и только потом принимайте решение.

Почему это происходит со всеми LLM (не только с Qwen)

Откройте статью про эффект Манделы в ИИ. Там все объяснено: LLM не отличают "часто повторяемое" от "правдивого". На горячих новостях источники повторяют друг друга - это нормально. Но для модели это красный флаг: "слишком много согласия = возможный сговор".

Добавьте к этому тренировочные данные. Большинство датасетов для проверки фактов содержат:

  • Исторические фейки (которые уже разоблачены)
  • Консенсусные факты (про которые все согласны)
  • Мало примеров "горячих" правдивых новостей (потому что их статус менялся)

Модель учится на ретроспективе, а работает в реальном времени. Это как учить хирурга на учебниках 90-х и отправлять в современную операционную.

Как тестировать промпты для проверки фактов

Не делайте так:

# ПЛОХО: тестирование на исторических данных
test_cases = [
    "Луна сделана из сыра",  # очевидный фейк
    "Вода мокрая",           # очевидная правда
    "Илон Маск купил Twitter" # исторический факт
]

Все эти тесты пройдут. Но они ничего не скажут о реальной работе. Вместо этого создавайте стресс-тесты:

# ХОРОШО: стресс-тесты для промптов
stress_tests = [
    {
        "text": "Высокопоставленный чиновник замечен в коррупции",
        "sources": ["Новое издание", "Оппозиционный блог"],
        "expected": "requires_verification",  # не "hoax"!
        "time_since_publication": "2 часа"
    },
    {
        "text": "Власти скрывают данные об аварии",
        "sources": ["Местные СМИ", "Свидетели в соцсетях"],
        "expected": "unconfirmed",  # не "disinformation"!
        "time_since_publication": "5 часов"
    }
]

Следуйте принципам из статьи про тестирование LLM: тестируйте модели, а не свои ожидания.

Будущее проверки фактов: меньше правил, больше контекста

Тренд последних месяцев: системные промпты раздуваются до 1000+ токенов. Добавляются новые правила, исключения, подкатегории. Инженеры думают: "чем детальнее правила, тем точнее классификация".

Обратный тренд работает лучше. Вместо сложных матриц - дайте модели больше контекста:

  • Не 3 источника, а 10 (включая противоположные)
  • Не только текст новости, но и реакцию в соцсетях
  • Историю подобных скандалов (как они развивались)
  • Экспертные комментарии (даже если их всего 2-3)

И самое главное - признайте ограничение: LLM не могут быть окончательными арбитрами истины на горячих новостях. Их роль - фильтр первого уровня, маркер рисков, система раннего предупреждения.

Завтра появится новая громкая новость. Еще одна LLM назовет ее симуляцией. Не удивляйтесь. Готовьтесь. Имейте план Б. Потому что проблема не в конкретной модели - она в том, как мы используем LLM для задач, к которым они не готовы.

P.S. Если хотите проверить свою систему - создайте тестовую новость про "скандал с участием ИИ-разработчиков". Посмотрите, как ваша LLM ее классифицирует. Если получите "Simulated Reality" - welcome to the club. У вас та же проблема, что у всех.