ИИ проверяет ИИ: детектор нашел фальшивые цитаты в научных статьях
Научное сообщество в шоке. Престижная конференция по нейронным сетям NeurIPS, которая должна была состояться в декабре 2025 года, оказалась в эпицентре скандала. Детектор AI-текста GPTZero, созданный специально для выявления сгенерированного контента, обнаружил фальшивые цитаты и ссылки в десятках принятых статей.
Ирония ситуации зашкаливает: нейросети, представленные на конференции по искусственному интеллекту, оказались написаны с помощью... других нейросетей. Причем настолько плохо, что даже базовые проверки на плагиат их не поймали.
По данным на 21 января 2026 года, проверка GPTZero выявила 47 статей с явными признаками AI-генерации в библиографических разделах. В 23 случаях цитаты ссылались на несуществующие исследования или искажали реальные работы.
Как это случилось? Просто спросили ChatGPT
Расследование показало типичную схему. Авторы статей, особенно из менее престижных университетов, использовали нейросети вроде GPT-5 или Claude 3.5 для "улучшения" литературного обзора. Просили: "Добавь больше ссылок на работы по трансформерам". ИИ добросовестно галлюцинировал.
"Многие исследователи воспринимают LLM как улучшенный Google Scholar, - объясняет Марк Чен, разработчик GPTZero. - Они не проверяют выходные данные, потому что доверяют формальному тону. А система отлично генерирует убедительный академический бред".
Примеры фальшивых цитат, которые прошли рецензирование
| Что было в статье | Реальность | Вероятный источник |
|---|---|---|
| "Smith et al. (2024) показали, что attention механизмы превосходят CNN на 300%" | Такой статьи не существует. Smith не публиковал работы в 2024 году. | GPT-5, Claude 3.5 |
| "В исследовании Johnson and Lee (2023) представлена архитектура NeuroTransformer-XL" | Johnson и Lee действительно соавторы, но их статья 2023 года про другое. NeuroTransformer-XL - вымысел. | Claude 3.5 Sonnet |
| "Согласно мета-анализу Chen et al. (2025), 89% современных моделей страдают от catastrophic forgetting" | Мета-анализ запланирован на 2026 год, еще не опубликован. Цифра 89% взята с потолка. | GPT-5 Turbo |
Самое смешное (или грустное): рецензенты NeurIPS эти цитаты пропустили. Потому что кто проверяет каждую ссылку в 30-страничной статье? Особенно когда deadline горят, а тебе прислали на рецензию еще пять работ.
Проблема не в плагиате, а в доверии
Это не классический плагиат, где копируют чужой текст. Это хуже - создание альтернативной научной реальности. Нейросеть не крадет чужие идеи, она придумывает новые. Которые выглядят правдоподобно, цитируются другими исследователями и постепенно заражают академический дискурс.
Ситуация напоминает скандал с Grok, где ИИ генерировал компрометирующие deepfake. Только здесь фейки не про политиков, а про науку. И они не вызывают немедленного скандала, а тихо расползаются по базам знаний.
"Мы создали инструменты, которые подрывают саму основу научного метода, - говорит профессор Лиза Вонг из MIT. - Если нельзя доверять цитатам, что останется от cumulative science? Каждый будет строить теории на выдуманных основаниях".
Детекторы ИИ становятся обязательными для рецензирования
После скандала NeurIPS ввела обязательную проверку всех поступающих статей через GPTZero и аналогичные системы. Но это палка о двух концах.
- Детекторы тоже ошибаются. Особенно с текстами не-носителей языка
- Авторы научатся обходить проверки (уже есть сервисы "анти-GPTZero")
- Создается прецедент тотального недоверия: каждый автор под подозрением
Более глубокая проблема, как отмечают в анализе логических ошибок ИИ, в самой природе больших языковых моделей. Они не понимают, что цитируют. Они оптимизируют за токен, за перплексию, за человеческую оценку. Но не за истинность.
OpenAI анонсировала на январь 2026 года режим "Academic Mode" для GPT-5, который должен сократить галлюцинации в научном контексте на 70%. Но даже 30% ошибок в цитатах - это катастрофа для науки.
Что делать исследователям прямо сейчас?
Пока индустрия не придумала надежного решения, есть несколько практических правил:
- Проверяйте каждую цитату вручную. Да, это больно. Но лучше потратить час, чем быть отозванным.
- Используйте ИИ только для brainstorming, не для написания. Попросите предложить темы, но не готовые абзацы.
- Настройте свои промпты. Добавляйте "Provide only verified citations from these specific papers: [список]".
- Проверяйте свои же тексты через детекторы. Перед отправкой прогнать через GPTZero - это новый этический стандарт.
История с NeurIPS - не первый случай, когда ИИ создает проблемы с доверием. Вспомните фантомных хулиганов от Copilot или фейковые вирусные посты на Reddit. Но теперь проблема добралась до святая святых - научной коммуникации.
Будущее: цифровые нотариусы и блокчейн для цитат?
Экстремальные предложения уже звучат. Некоторые предлагают систему "цитатного блокчейна", где каждая ссылка получает цифровую подпись и проверяется децентрализованной сетью. Другие говорят о сертифицированных "академических ИИ", обученных только на верифицированных источниках.
Но пока что лучшая защита - старомодный скептицизм. Если цитата выглядит слишком идеально, проверьте ее. Если статья обещает невероятные результаты, поищите оригинал. Если авторы из неизвестного университета внезапно цитируют всех нобелевских лауреатов подряд - это красный флаг.
Скандал с NeurIPS показал: наука о машинном обучении стала первой жертвой машинного обучения. Ирония в том, что для решения проблемы нам потребуются еще более сложные алгоритмы. Которые, возможно, тоже будут галлюцинировать.
Мой прогноз на 2026-2027 годы: появятся специализированные детекторы для каждого научного поля. Биологи будут проверять цитаты про ДНК, физики - про квантовые вычисления. И все они будут основаны на нейросетях. Круг замкнется.
А пока - проверяйте свои ссылки. Даже если их сгенерировал самый продвинутый ИИ. Потому что, как показывает практика, даже OpenAI и Anthropic иногда ошибаются. Только их ошибки могут стоить вам научной карьеры.