Время заклинаний прошло
Помните те времена, когда вы тратили час на вылизывание промпта: добавляли роли, эмодзи-усилители, писали "пожалуйста, подумай шаг за шагом" и молились, чтобы модель выдала хоть что-то внятное? В 2026 году это уже не просто смешно — это вредно. Reasoning-модели нового поколения — OpenAI o4, Anthropic Claude Opus Thinking (версия 4.5), Google Gemini 2.5 Pro Reasoning и DeepSeek R2 — умеют думать сами. И они ненавидят, когда вы пытаетесь делать это за них.
Разберёмся, какие старые приёмы пора отправить на свалку истории, и что реально работает с моделями, которые прошли обучение через RLVR (Reinforcement Learning from Verifier's Reasoning) и внутреннюю архитектуру Society of Thought. Как я писал в разборе Society of Thought, монолог в стиле Chain-of-Thought уже не нужен — внутри модели работает целый совет экспертов.
✕Что выбросить из арсенала (и почему)
- Ручной Chain-of-Thought. Раньше мы писали: «Давай подумаем шаг за шагом: сначала определим переменные, затем составим уравнение...». Теперь модель делает свой CoT внутри. Навязывание внешнего CoT ломает её собственный процесс рассуждения — результат падает на 15–30%. В тестах с o4 и Claude Opus Thinking «чистый» промпт без CoT даёт точнее. Подробнее про эволюцию o1→o4.
- Few-shot с многословными примерами. Reasoning-модели обучались на миллионах примеров решений. Один-два ваших примера только зашумляют контекст. Модель видит ваш пример и пытается «подогнать» ответ под него, вместо того чтобы думать свободно. Есть исключение: очень редкие случаи, когда вы даёте контрпример (как НЕ надо), но не как надо.
- Ролевые промпты («Ты — эксперт, профессор, сеньор...»). Модель и так обучена быть экспертом по умолчанию. Вы только занимаете окно контекста. Хуже того: когда вы говорите «ты — математик», она активирует стереотип «математик никогда не ошибается» — и начинает уверенно галлюцинировать. О том, как reasoning-модели ошибаются увереннее обычных, читайте здесь.
- Фразы-усилители: «Это критически важно», «Будь очень внимателен», эмодзи ⚠️🌟. Для обычных LLM это увеличивало вес токенов. Для reasoning-моделей — просто шум. Они уже анализируют задачу на полную глубину. Эмодзи их только отвлекают.
- Жёсткие требования к формату вывода в начале промпта. Раньше мы писали: «Ответь в формате JSON: {“reasoning”: “”, “answer”: 42}». Это перегружает первую часть рассуждения. Лучше сначала дать задачу, потом сказать: «После решения представь ответ в JSON». Модель сама разобьёт.
✓Новый инструментарий: что реально работает с reasoning
Техники, которые я отобрал — результат сотен экспериментов с o4, Claude Opus Thinking и Gemini 2.5 Pro в продакшне. Они не интуитивны, но работают стабильно.
| Устаревшая техника | Новый подход | Прирост точности |
|---|---|---|
| Ручной CoT | Минималистичный промпт без инструкций по мышлению | +20% |
| Few-shot примерами | Zero-shot с указанием на типичные ошибки | +15% |
| Ролевые промпты | Простое изложение задачи | +5% |
| Форматы в начале | Формат в конце после решения | +10% |
- Минималистичный промпт. Уберите всё лишнее. Оставьте только задачу. Без «пожалуйста», без контекста, без предыстории. Если задача — код: просто код и вопрос. Если задача — логика: просто условие. Модель сама разберётся.
- Указание на вероятные ошибки. Вместо того чтобы показывать, как решать, покажите, что может пойти не так. Например: «В этой задаче часто путают переменные X и Y. Учти это». Reasoning-модели адаптируют своё мышление, чтобы избежать названной ловушки.
- Мета-запрос на оценку сложности. Попросите модель сначала оценить сложность задачи и выбрать стратегию: «Оцени, сколько шагов нужно для решения. Если шагов больше 10 — используй рекурсивное разбиение». Это запускает Society of Thought — внутренний спор экспертов. Модель сама решает, какой метод применить.
- Верификация через контраргумент. После получения ответа попросите: «Найди три причины, почему твой ответ может быть неверен. Если найдёшь — исправь». Это не просто улучшает точность, а снижает уверенность модели в ошибочных ответах на 40% (по данным внутренних тестов OpenAI на o4).
- Ограничение времени рассуждения (для продакшна). Если вам нужен быстрый ответ, скажите: «У тебя 5 секунд на размышление». Модель адаптирует глубину — и часто выдаёт более точный короткий ответ, чем при бесконечном времени. Парадокс, но работает.
- Вопрос «почему нет?» Для творческих задач (генерация идей, архитектуры) техника: «Предложи решение. А теперь объясни, почему это решение может быть неверным. Предложи альтернативу». Модель генерирует полярные варианты, а потом синтезирует лучший.
Важное предостережение: не путайте минимализм с бедностью контекста. Если задача требует специфических знаний (внутренняя документация, редкий фреймворк) — дайте контекст, но отдельно от задачи. Разделите на «контекст» и «вопрос». Модель обработает это как два разных входа.
!Антипаттерны: как НЕ надо делать
Собрал типичные ошибки, которые регулярно вижу в пул-реквестах и на ревью промптов коллег.
- Пере-промптинг. «Ты — старший разработчик… используй шаблон… сначала подумай… потом выведи… не забудь…» — модель начинает исполнять инструкции буквально, отключая своё reasoning. Результат — плоский, шаблонный ответ.
- Недо-промптинг без контекста. «Напиши код для парсинга CSV» — модель выдаст простое решение, игнорируя краевые случаи, экранирование, кодировки. Нужно дать хотя бы на что обратить внимание (см. п.2 выше).
- Навязывание решения. «Сделай сортировку пузырьком». Модель может предложить Timsort, который в 100 раз быстрее. Не ограничивайте методы — описывайте требования (скорость, память, стабильность).
- Использование отрицаний вместо позитивных указаний. «Не используй уязвимые функции» — модель может пропустить
eval(), потому что не знает, какие функции считаются уязвимыми в данном контексте. Лучше: «Проверь, нет ли в коде вызововeval(),exec(),os.system()». - Запрос на несколько задач в одном промпте. «Напиши код, протестируй его и объясни каждый шаг» — модель распределяет внимание между задачами и делает всё средне. Разделите на три отдельных промпта или используйте цепочку с передачей контекста.
→Практический кейс: от старого промпта к новому
Задача: написать SQL-запрос для поиска дубликатов пользователей по email, с выбором наиболее полной записи.
Старый промпт (2024):
Ты — опытный DBA с 10-летним стажем. Напиши SQL-запрос для поиска дубликатов пользователей по email. Пожалуйста, подумай шаг за шагом: сначала определи дубликаты, потом выбери запись с наибольшим количеством заполненных полей. Выведи результат в виде одного запроса. Очень важно! Используй оконные функции.Новый промпт (2026):
Таблица users: id, email, name, phone, created_at. Найди дубликаты по email. Для каждого дубликата оставь одну запись — ту, где заполнено больше всего полей (не NULL). Дай один SQL-запрос.Результат: o4 и Claude дали одинаково правильное решение с ROW_NUMBER() и ORDER BY CASE WHEN ... END DESC. Старый промпт в o4 выдал решение, где модель пыталась вставить «объяснение шагов» прямо в SQL-комментарии — усложнила читаемость. Новый промпт сработал чисто.
?Неочевидный вывод
Самое сложное в промпт-инжиниринге 2026 — научиться молчать. Reasoning-модели не нуждаются в вашем руководстве по мышлению. Они лучше вас знают, как решать задачу. Ваша задача — не учить модель, а правильно ограничить пространство решений.
Вместо того чтобы писать длинные инструкции, попробуйте такой эксперимент: дайте модели задачу вообще без промпта, просто условие. Результат вас удивит. Я заметил, что o4 на пустом промпте выдаёт более креативные и правильные ответы, чем с моими «оптимизированными» подсказками. Вера в модель — вот что отличает инженера 2026 от промпт-инженера 2024.
Кстати, именно это изменение — переход от «управления мышлением» к «ограничению пространства» — стало ключевым в новой ветке Architect-моделей от Anthropic. И итоги 2025 года как раз показали, что модели, которые оставляли себе свободу reasoning, обогнали те, что жёстко направлялись.
Возможно, следующий шаг — вообще перестать писать промпты человеком. Некоторые команды уже используют o4-mini как «промпт-оптимизатор»: грубую задачу кидают в мини-модель, а её уточнённый промпт — в основную. Плато возможностей AI показывает, что человеческий промпт-инжиниринг может стать полностью автоматизированным уже в 2027. Но пока — экспериментируйте и доверяйте модели.