Всё началось с «прорыва», которого не было
На прошлой неделе редакция Timeweb опубликовала статью о новом алгоритме российской компании «Нейротек», который якобы научился предсказывать биржевые крахи с точностью 94%. Материал выглядел солидно: цитаты CEO, графики, отсылки к исследованию Стэнфорда. Через шесть часов пост исчез. Оказалось, вся история от первого до последнего слова была сгенерирована GPT-5 с плагином FactForge, который умеет создавать правдоподобные, но абсолютно вымышленные цитаты и исследования.
Скандал получился громким не потому, что ИИ написал текст. А потому, что его пропустили люди. Редактор, корректор, выпускающий – никто не заподозрил подвох. Проверка источников свелась к гуглению названия компании. Итог: испорченная репутация, снятый с должности шеф-редактор и паника во всей индустрии. Если такое произошло с крупным изданием, что говорить о пабликах в Telegram или новостных агрегаторах?
GPT-5, выпущенный в конце 2025 года, научился идеально имитировать стиль аналитических материалов. Его плагин FactForge генерирует псевдоцитаты, ссылки на несуществующие DOI и даже правдоподобные имена экспертов. Без глубокой проверки отличить такой текст от настоящего почти невозможно.
Как лопнул пузырь: три признака, которые всё испортили
Первым забил тревогу анонимный подписчик. Он заметил, что CEO «Нейротека» Игорь Семёнов на LinkedIn выглядел как стоковое фото. Потом оказалось, что исследование Стэнфорда за 2024 год под названием «Quantum-Financial Collapse Predictors» не существует в принципе. Третий гвоздь в крышку гроба: в статье упоминался профессор Артур Чжан, который, как выяснилось, умер за два года до предполагаемой цитаты.
- Фото-призрак: Генеративные модели типа Midjourney V7 или Stable Diffusion 4 создают реалистичные портреты несуществующих людей. Проверить можно обратным поиском через TinEye или Google Images.
- Исследование-фантом: ИИ любит ссылаться на работы из arXiv или IEEE. Всегда ищите DOI или ISBN. Нет номера – почти гарантированно фейк.
- Хронологический сбой: Модели иногда путают даты. Мёртвые учёные не дают интервью. Проверяйте даты жизни ключевых персон.
Звучит просто, правда? Но в спешке или из-за доверия к платформе эти шаги пропускают. Именно это и произошло в Timeweb. Редактор позже признался: «Текст был настолько гладким, логичным, что даже мысль о проверке не возникла». Вот в чём главная опасность современных ИИ – они создают слишком убедительную ложь.
Инструменты для параноиков (то есть для всех)
После скандала спрос на AI-детекторы взлетел на 300%. Но и они не панацея. Самые актуальные на февраль 2026 года:
| Инструмент | Что делает | Проблема |
|---|---|---|
| Originality.ai 3.0 | Анализирует перплексию текста, ищет паттерны GPT-5, Gemini 3.0, Claude-4 | Часто даёт ложные срабатывания на технические тексты |
| GPTZeroX | Проверяет «случайность» выбора слов, работает с 28 языками | Легко обходится, если ИИ потом редактирует человек |
| DeepTrust Analyzer | Сканирует мультимодальный контент: текст+изображения+аудио | Дорогой, требует подписки от $99/мес |
Эксперты из нашего разбора кейса с Reddit сходятся во мнении: детекторы – лишь первый фильтр. Надежнее всего работает старомодная журналистская методология. Звоните человеку, чью цитату используете. Пишите в университет, который упомянут. Проверяйте регистрацию компании в реестре. Да, это долго. Но иначе вы рискуете повторить путь Timeweb.
Этика после взлома доверия
Главный вопрос после скандала: кто виноват? Автор, который использовал ИИ? Редакция, которая не проверила? Или компания, создавшая инструмент для генерации убедительной лжи?
Юристы говорят, что по ФСТЭК 117 и Указу 490 распространение заведомо ложной информации с помощью ИИ может караться штрафами. Но как доказать «заведомую ложность», если сам автор мог поверить в сгенерированный текст?
Редакции теперь вводят жёсткие протоколы. Каждую цитату – проверять. Каждое исследование – искать в базе данных. Каждое фото – прогонять через детектор. Это замедляет работу в разы. Но альтернатива – потерять всё.
Ваш личный чек-лист на 2 минуты
Не хотите делиться фейком? Потратьте 120 секунд.
1Сломайте сюжет
Выделите главное утверждение статьи. Одна фраза. Например: «Алгоритм ИИ предсказывает крахи с точностью 94%». Гуглите именно её. Если кроме этой статьи ничего нет – красный флаг.
2Проверьте лиц
Имена, должности, компании. LinkedIn, сайт компании, реестр юрлиц. Нет профиля? Компания зарегистрирована вчера? Стоп.
3Докопайтесь до источника
«Исследование Оксфорда» – должно быть название, DOI, авторы. «Опрос показал» – кто проводил, выборка, методология. Нет деталей – не верьте.
Этот метод не идеален. Но он отсеивает 90% грубых фейков, подобных timeweb-овскому. Оставшиеся 10% требуют уже профессионального расследования.
Что дальше? Пузырь лопнет, но не там, где ждут
Многие ждут, что читатели начнут массово не доверять всему подряд. Не дождутся. Человеческий мозг ленив. Мы скорее поверим в красивую историю, чем потратим силы на проверку.
Настоящий сдвиг произойдёт в другом месте – в монетизации. Рекламные сети вроде Google AdSense уже тестируют алгоритмы, которые понижают в выдаче сайты с AI-контентом без человеческой проверки. Биржи ссылок отказываются работать с такими материалами. Деньги – вот что заставит медиа меняться.
А простым пользователям остаётся одно: включать скепсис. Если статья вызывает восторг или панику – это повод не поделиться ею, а начать проверять. Помните историю с слепой верой в ИИ-навигатор? Там люди проехали 40 км в лес. В информации последствия могут быть куда серьёзнее.
Скандал с Timeweb – не первый и не последний. Но он чётко показал: граница между правдой и ложью теперь определяется не технологиями, а нашим желанием эту границу искать.