«Мы облажались»: неожиданное признание от главы OpenAI
Вчера вечером Сэм Альтман вышел в прямой эфир на своей платформе и сказал то, чего никто не ожидал услышать от человека, который продает подписки за $200 в месяц. «Качество текстовой генерации в GPT-5.2 не соответствует нашим стандартам. Мы знаем о проблеме и работаем над исправлением». Просто, без PR-сладких оберток.
Сообщество взорвалось. Потому что пользователи жаловались на это месяцами. Тексты стали водянистыми. Повторяющимися. Лишенными былой глубины и точности. Но официального ответа не было. До вчерашнего дня.
Контекст: GPT-5.2 — последняя основная версия модели OpenAI на 01.02.2026. Вышла в ноябре 2025 года. Позиционировалась как «революция в понимании контекста». На практике многие пользователи отмечают обратное.
Что конкретно сломалось? Три главные боли
После признания Альтмана инженеры и исследователи начали копать глубже. Картина вырисовывается тревожная. Это не просто «стало чуть хуже». Это системные сбои.
1. Синдром «размытого смысла»
Модель научилась избегать конкретики как огня. Спросите о преимуществах новой технологии — получите список общих фраз, которые подойдут к чему угодно: «увеличивает эффективность», «оптимизирует процессы», «открывает новые возможности». Где цифры? Где сравнения? Где суть?
Раньше GPT-4 Turbo мог дать развернутый анализ с примерами. Сейчас — текст, от которого хочется зевнуть. Это подтверждает и наша статья о деградации AI-ассистентов для кодирования. Проблема одна: модель потеряла «зубы».
2. Циклические повторы и потеря контекста
Самое раздражающее. Вы просите написать статью из пяти разделов. Модель начинает второй раздел с фразы «Как упоминалось ранее...», хотя ничего не упоминалось. Или повторяет одну мысль тремя разными способами в одном абзаце.
3. Креативность? Какая креативность?
Генерация идей, нестандартные аналогии, живые метафоры — все это ушло. Текст стал безопасным. Предсказуемым. Скучным. Как будто модель прошла через такой мощный фильтр безопасности, что боится сказать что-либо яркое. Наша теория о сломанных фильтрах безопасности здесь оказывается как никогда актуальной.
Почему так вышло? Версии изнутри
Альтман намекнул на «комплекс причин». Сообщество строит догадки. Вот самые вероятные из них.
- Переобучение на «безопасных» данных. После скандалов с галлюцинациями и вредоносными ответами OpenAI, вероятно, залила в обучение тонны выхолощенных, отфильтрованных текстов. Модель научилась имитировать форму, но потеряла содержание.
- Проблемы с масштабированием. Увеличивая параметры (а GPT-5.2, по слухам, перевалила за 2 триллиона), можно столкнуться с эффектом насыщения. Больше — не всегда лучше. Иногда просто дороже и медленнее.
- Гонка за метриками, а не за качеством. Benchmarks показывают рост. Человеческий опыт — падение. Модель оптимизировали под победу в тестах (MMLU, HellaSwag), а не под удовлетворение реального пользователя, который пишет пост для блога.
Интересно, что параллельно с этим в сообществе гуляет детективная история про модель IQuest-Coder-V1. Кто-то пытается создать то, что не удалось гигантам. Может, и правда, будущее за небольшими, но отточенными моделями?
Что делать сегодня? Практические советы
Ждать, пока OpenAI починит GPT-5.2? Не вариант. Работать нужно сейчас. Вот что реально помогает в феврале 2026 года.
Совет 1: Забудьте про короткие промпты
«Напиши статью» — это путь к разочарованию. Нужна детальная инструкция. Структура. Примеры стиля. К счастью, утекли внутренние рекомендации OpenAI по промптингу для GPT-5.2. Главный принцип: явно запрещайте общие фразы и требуйте конкретики. Работает.
Совет 2: Используйте цепочки рассуждений (Chain-of-Thought) принудительно
Не надейтесь, что модель «подумает» сама. Заставляйте. Пишите в промпте: «Распиши рассуждение по шагам перед тем, как дать окончательный ответ. Шаг 1: Определи ключевую тему. Шаг 2: Выдели три основных аргумента...». Да, это лишняя работа. Но это возвращает хоть какую-то вменяемость результату. Без этого можно столкнуться с кошмаром 22-часового «размышления».
Совет 3: Присмотритесь к альтернативам. Серьезно
Монополия OpenAI дала трещину. Claude 3.5 Sonnet от Anthropic (актуальная версия на 01.02.2026) показывает более стабильное качество в длинных текстах. Модели на базе открытой архитектуры MLA (как в статье про GPT-OSS) догоняют по качеству, будучи в разы меньше. А некоторые вообще считают, что будущее за 10-миллиардными компактными моделями.
| Модель / Сервис | Сильная сторона для текста (на 01.02.2026) | Главный минус |
|---|---|---|
| GPT-5.2 (ChatGPT Pro) | Широкая эрудиция, интеграция с инструментами | Размытые, водянистые формулировки |
| Claude 3.5 Sonnet (Anthropic) | Консистентность длинного текста, соблюдение инструкций | Более консервативен, медленнее генерирует |
| DeepSeek-R1 (локальная, на MLA) | Высокая скорость, прозрачность, низкая цена | Требует технических навыков для развертывания |
Что дальше? Прогноз на 2026 год
Признание Альтмана — не конец, а начало новой гонки. OpenAI будет спешно выпускать патчи. Возможно, мы увидим GPT-5.3 уже весной 2026 с фокусом на «качестве генерации», а не на новых фичах.
Но доверие подорвано. Пользователи, особенно профессионалы (копирайтеры, журналисты, маркетологи), уже ищут запасные аэродромы. Они поняли, что нельзя зависеть от одной модели. Даже от OpenAI.
Ирония в том, что проблема с текстами обнажила более глубокий кризис: фундаментальную уязвимость LLM к манипуляциям. Если модель можно сломать промпт-инъекцией или испортить чрезмерным выравниванием — что это за фундамент для будущего ИИ?
Мой совет? Не ждите чуда от одного апдейта. Собирайте свой стек инструментов. Тестируйте. И помните, что лучший промпт-инженер — это все еще ваш собственный мозг. Нейросеть — всего лишь (временно сломанный) инструмент.