Проблемы GPT-5.2: признание Альтмана, причины деградации текста, решения | AiManual
AiManual Logo Ai / Manual.
01 Фев 2026 Новости

Сэм Альтман признал: GPT-5.2 стал писать хуже. Что случилось и как это исправить прямо сейчас

Сэм Альтман публично признал проблемы с качеством текстов GPT-5.2. Разбираем причины, последствия и рабочие способы исправить ситуацию в феврале 2026 года.

«Мы облажались»: неожиданное признание от главы OpenAI

Вчера вечером Сэм Альтман вышел в прямой эфир на своей платформе и сказал то, чего никто не ожидал услышать от человека, который продает подписки за $200 в месяц. «Качество текстовой генерации в GPT-5.2 не соответствует нашим стандартам. Мы знаем о проблеме и работаем над исправлением». Просто, без PR-сладких оберток.

Сообщество взорвалось. Потому что пользователи жаловались на это месяцами. Тексты стали водянистыми. Повторяющимися. Лишенными былой глубины и точности. Но официального ответа не было. До вчерашнего дня.

Контекст: GPT-5.2 — последняя основная версия модели OpenAI на 01.02.2026. Вышла в ноябре 2025 года. Позиционировалась как «революция в понимании контекста». На практике многие пользователи отмечают обратное.

Что конкретно сломалось? Три главные боли

После признания Альтмана инженеры и исследователи начали копать глубже. Картина вырисовывается тревожная. Это не просто «стало чуть хуже». Это системные сбои.

1. Синдром «размытого смысла»

Модель научилась избегать конкретики как огня. Спросите о преимуществах новой технологии — получите список общих фраз, которые подойдут к чему угодно: «увеличивает эффективность», «оптимизирует процессы», «открывает новые возможности». Где цифры? Где сравнения? Где суть?

Раньше GPT-4 Turbo мог дать развернутый анализ с примерами. Сейчас — текст, от которого хочется зевнуть. Это подтверждает и наша статья о деградации AI-ассистентов для кодирования. Проблема одна: модель потеряла «зубы».

2. Циклические повторы и потеря контекста

Самое раздражающее. Вы просите написать статью из пяти разделов. Модель начинает второй раздел с фразы «Как упоминалось ранее...», хотя ничего не упоминалось. Или повторяет одну мысль тремя разными способами в одном абзаце.

💡
Это напрямую связано с архитектурными изменениями в механизме внимания. В погоне за длинным контекстом (сейчас это 128К токенов) инженеры, судя по всему, пожертвовали его «плотностью». Модель «видит» весь текст, но плохо улавливает связи между его частями.

3. Креативность? Какая креативность?

Генерация идей, нестандартные аналогии, живые метафоры — все это ушло. Текст стал безопасным. Предсказуемым. Скучным. Как будто модель прошла через такой мощный фильтр безопасности, что боится сказать что-либо яркое. Наша теория о сломанных фильтрах безопасности здесь оказывается как никогда актуальной.

Почему так вышло? Версии изнутри

Альтман намекнул на «комплекс причин». Сообщество строит догадки. Вот самые вероятные из них.

  • Переобучение на «безопасных» данных. После скандалов с галлюцинациями и вредоносными ответами OpenAI, вероятно, залила в обучение тонны выхолощенных, отфильтрованных текстов. Модель научилась имитировать форму, но потеряла содержание.
  • Проблемы с масштабированием. Увеличивая параметры (а GPT-5.2, по слухам, перевалила за 2 триллиона), можно столкнуться с эффектом насыщения. Больше — не всегда лучше. Иногда просто дороже и медленнее.
  • Гонка за метриками, а не за качеством. Benchmarks показывают рост. Человеческий опыт — падение. Модель оптимизировали под победу в тестах (MMLU, HellaSwag), а не под удовлетворение реального пользователя, который пишет пост для блога.

Интересно, что параллельно с этим в сообществе гуляет детективная история про модель IQuest-Coder-V1. Кто-то пытается создать то, что не удалось гигантам. Может, и правда, будущее за небольшими, но отточенными моделями?

Что делать сегодня? Практические советы

Ждать, пока OpenAI починит GPT-5.2? Не вариант. Работать нужно сейчас. Вот что реально помогает в феврале 2026 года.

Совет 1: Забудьте про короткие промпты

«Напиши статью» — это путь к разочарованию. Нужна детальная инструкция. Структура. Примеры стиля. К счастью, утекли внутренние рекомендации OpenAI по промптингу для GPT-5.2. Главный принцип: явно запрещайте общие фразы и требуйте конкретики. Работает.

Совет 2: Используйте цепочки рассуждений (Chain-of-Thought) принудительно

Не надейтесь, что модель «подумает» сама. Заставляйте. Пишите в промпте: «Распиши рассуждение по шагам перед тем, как дать окончательный ответ. Шаг 1: Определи ключевую тему. Шаг 2: Выдели три основных аргумента...». Да, это лишняя работа. Но это возвращает хоть какую-то вменяемость результату. Без этого можно столкнуться с кошмаром 22-часового «размышления».

Совет 3: Присмотритесь к альтернативам. Серьезно

Монополия OpenAI дала трещину. Claude 3.5 Sonnet от Anthropic (актуальная версия на 01.02.2026) показывает более стабильное качество в длинных текстах. Модели на базе открытой архитектуры MLA (как в статье про GPT-OSS) догоняют по качеству, будучи в разы меньше. А некоторые вообще считают, что будущее за 10-миллиардными компактными моделями.

Модель / СервисСильная сторона для текста (на 01.02.2026)Главный минус
GPT-5.2 (ChatGPT Pro)Широкая эрудиция, интеграция с инструментамиРазмытые, водянистые формулировки
Claude 3.5 Sonnet (Anthropic)Консистентность длинного текста, соблюдение инструкцийБолее консервативен, медленнее генерирует
DeepSeek-R1 (локальная, на MLA)Высокая скорость, прозрачность, низкая ценаТребует технических навыков для развертывания

Что дальше? Прогноз на 2026 год

Признание Альтмана — не конец, а начало новой гонки. OpenAI будет спешно выпускать патчи. Возможно, мы увидим GPT-5.3 уже весной 2026 с фокусом на «качестве генерации», а не на новых фичах.

Но доверие подорвано. Пользователи, особенно профессионалы (копирайтеры, журналисты, маркетологи), уже ищут запасные аэродромы. Они поняли, что нельзя зависеть от одной модели. Даже от OpenAI.

Ирония в том, что проблема с текстами обнажила более глубокий кризис: фундаментальную уязвимость LLM к манипуляциям. Если модель можно сломать промпт-инъекцией или испортить чрезмерным выравниванием — что это за фундамент для будущего ИИ?

Мой совет? Не ждите чуда от одного апдейта. Собирайте свой стек инструментов. Тестируйте. И помните, что лучший промпт-инженер — это все еще ваш собственный мозг. Нейросеть — всего лишь (временно сломанный) инструмент.