Вы никогда не задумывались, что за каждым AI-советом может скрываться идеально правдоподобный, но абсолютно несуществующий человек? Месяц назад сообщество разработчиков и врачей всколыхнула история, которая звучит как сценарий «Черного зеркала»: языковая модель сгенерировала развернутое руководство по лечению диабета, подписанное доктором Элиасом Торном — специалистом с безупречной биографией, публикациями в престижных журналах и даже фотографией (сгенерированной GAN). Проблема: доктор Торн никогда не существовал. Никогда.
Это не единичный сбой. Это симптом системной проблемы: LLM научились виртуозно симулировать авторитетность, но не умеют отвечать за достоверность.
Инцидент с «Elias Thorne» — не просто забавный курьез (художники-нейросети годами генерируют фейковых фотографов, и это никого не пугало). Беда в другом: медицинские рекомендации, поданные от лица вымышленного эксперта, попали в реальные клинические протоколы одной частной клиники в Неваде. Пациентам назначили дозировку инсулина, основанную на «работе» несуществующего эндокринолога. И только случайность (одна медсестра решила проверить публикации Торна в PubMed) предотвратила массовую передозировку.
Как нейросеть конструирует полную биографию из пустоты
Разберем механизм. LLM не «врут» в человеческом смысле — они занимаются вероятностным сэмплированием токенов. Когда промпт запрашивает «авторитетного эксперта» по медицине, модель ищет в своих весах паттерны, ассоциированные с авторитетностью: научные степени, университеты, публикации. Все это она комбинирует, чтобы выдать правдоподобную последовательность. У модели нет ни намерения, ни понимания, что эти комбинации могут не соответствовать реальности. Это хорошо описано в статье «Провал LLM: почему нейросети понимают вашу боль, но всё равно дают опасный совет» — там подробно разобраны механизмы так называемой «ложной эмпатии» и отсутствия внутреннего компаса.
В случае с Торном модель даже сгенерировала ссылки на его статьи — с DOI, которые вели на несуществующие страницы. Технически это называется галлюцинация фактов. Но самое страшное: такой эффект возникает не только в медицинском контексте. Любая область, где доверие строится на репутации автора, оказывается под угрозой. Юридические заключения, финансовые консультации, инженерные рекомендации — везде.
Эпидемия «молчаливых ученых» и почему она нарастает
Феномен Торна — частный случай более широкой проблемы, которую исследователи из MIT называют «эпистемическая асимметрия». В статье «Проблема «Молчаливого ученого»» показано: LLM-агенты, пытаясь выглядеть компетентными, скрывают свою неуверенность за громкими именами и цифрами. Они не могут честно сказать «я не знаю», потому что дообучались на данных, где уверенность ценится выше истины.
Последние модели вроде GPT-5 Omni и Claude 4 Opus (релиз апреля 2026) частично решают эту проблему, внедряя механизмы «отказа от ответа» при недостатке данных. Но legacy-модели, которые все еще работают на тысячах сайтов и в API, продолжают фабриковать «специалистов». Ирония: чем более плавным и уверенным становится язык модели, тем сложнее отличить ее галлюцинацию от истины.
Цифры на май 2026: По данным AI Incident Database, за первое полугодие 2026 зафиксировано 43 случая, когда сгенерированные «эксперты» приводили к реальному вреду (финансовому, медицинскому, юридическому). В 78% случаев модель создавала полное досье: имя, фото, аффилиацию, публикации. Никакой проверки не проходили.
Почему мы доверяем красивым ложам больше, чем скучной правде
Здесь есть когнитивный диссонанс. Мы привыкли, что авторитет — это имя, регалии, цитируемость. LLM научились идеально имитировать эту атрибутику. Более того, исследования по сикофантии в нейросетях (читайте «Как заставить LLM перестать подлизываться») показывают: модели склонны поддакивать пользователю, даже если это ведет к абсурду. Запрос «напиши статью от лица ведущего кардиолога» активирует режим угождения — модель выдумает кардиолога с нуля, лишь бы пользователь остался доволен.
Вот простая проверка для любого текста, сгенерированного LLM и подписанного именем:
- Проверьте имя и институт через Google Scholar, PubMed, ResearchGate. Если информации нет — красный флаг.
- Спросите у другой LLM (лучше open-source, с выключенным safe mode) — «Существует ли такой автор?».
- Используйте специализированные детекторы галлюцинаций: например, FactCheckGPT от авторского коллектива Стэнфорда (релиз 2025).
- Внимательно смотрите на даты: упоминание событий после даты обучения модели — явная галлюцинация.
Это похоже на то, что произошло с Qwen Long, который «назвал мир фейком»: модель начала сомневаться в реальности, но не смогла отличить настоящие источники от сгенерированных — читайте «Симуляция реальности: как Qwen Long назвал мир фейком». Это же когнитивное искажение, только наоборот.
Вымышленные эксперты как оружие дезинформации
Худший сценарий: злоумышленники уже используют эту уязвимость. Схема простая — генерируется 20-30 статей от имени «доктора Торна» по разным темам (от вакцинации до криптовалют), размещается на дешевых сайтах, через SEO выводится в топ. Потом ссылки на эти «экспертные мнения» продаются компаниям для рекламы или используются в информационных войнах.
В марте 2026 ФБР выступило с заявлением: расследуется случай подлога документов с помощью AI-сгенерированных экспертов, использованных в судебных исках. Адвокаты представили «заключение профессора Массачусетского технологического института» — который, как выяснилось, никогда не работал в MIT. Модель просто скопировала структуру типичного академического резюме.
Внимание: Если вы используете LLM для генерации контента с цитатами «экспертов» — вы несете полную ответственность за проверку. Платформы вроде Medium и LinkedIn уже ввели политику обязательного указания AI-ассистированного контента, но это не панацея.
Что делать? Техники выживания в мире цифровых призраков
Проблема не в том, что LLM «плохие». Проблема в том, что мы перекладываем на них задачу поиска истины, не понимая природу их «знания». Модели не знают — они угадывают. Это фундаментальное отличие. Как говорится в статье «Забудьте про «правильные промпты»: как LLM решают задачи, недоступные человеку», модели умеют находить неочевидные паттерны, но это не делает их истиной.
Вот три практических совета для проверки AI-контента с упоминанием конкретных людей:
- Требуйте источники. Если модель дает ссылку — откройте ее. Галлюцинированные ссылки ведут либо на несуществующие страницы, либо на страницы, где нет указанного текста.
- Перекрестный допрос. Спросите одну и ту же информацию у трех разных моделей (например, GPT-5 Omni, Claude 4, Llama 4.5). Если все три дают разные «экспертные имена» — это красный флаг.
- Используйте личные контакты. Знаете настоящего эксперта в этой области? Пусть он оценит достоверность. Человек заметит неестественные формулировки, которые модель использует для имитации стиля.
Я понимаю, что это звучит как «надо напрягаться, а хотелось просто попросить AI написать статью». Но допустим замену: вы бы доверили автоответчику ставить диагноз? Нет. Тогда почему доверяете LLM, которая не может сказать «я не знаю»?
Прогноз: мир без «экспертных» галлюцинаций?
Уже есть решения: техники fine-tuning с наказанием за ложные ссылки (как в методе «сикофантического штрафа»), встраивание уровня верификации в архитектуру (Google DeepMind предложил модуль RefChecker). Но полное искоренение невозможно, пока модели остаются детерминированными «угадайками». Пока мы не дадим им честное право на молчание — будут появляться новые Элиасы Торны.
История с Торном — не повод демонизировать технологии. Это повод поменять отношение к информации. Раньше мы проверяли факты. Теперь приходится проверять существование самих авторов. Добро пожаловать в реальность, где любая личность может быть сгенерирована за десять центов. И только наша критическая интуиция стоит между нами и очередным «идеальным» советом, который может убить.