Больше не надо гадать: think или ultrathink?
Помните тот момент, когда вы впервые увидели параметры think и ultrathink в Claude API? Первая мысль: "Круто! Теперь можно контролировать, насколько глубоко модель думает". Вторая мысль, через неделю: "Боже, сколько же это стоит..." Третья — когда счёт приходит: "Надо бы как-то оптимизировать".
Anthropic услышала ваши молитвы. В Opus 4.6 они убрали ручное управление глубиной reasoning и заменили его Adaptive Thinking — системой, которая сама решает, сколько "думать". Звучит как магия? Это почти она.
Важно: Adaptive Thinking — не просто новый параметр. Это фундаментальное изменение в том, как Opus 4.6 обрабатывает запросы. Если раньше вы платили за "страховку" (ставили ultrathink на всё подряд), теперь модель сама определяет необходимый уровень сложности.
Почему ручное управление reasoning было проблемой?
Давайте честно: большинство разработчиков использовали think/ultrathink как чёрный ящик. Простой запрос? think. Сложный? ultrathink. Но что такое "сложный"? Запрос на рефакторинг 1000 строк кода — сложный? А если это всего лишь переименование переменных? А если между ними?
Проблема №1: мы платили за избыточность. Огромное количество запросов получали больше reasoning-мощности, чем им нужно. Проблема №2: мы недооплачивали для действительно сложных задач. Даже ultrathink иногда не хватало для многоэтапных рассуждений, но мы об этом не знали.
Как работает Adaptive Thinking?
Вот где начинается техническая магия. Adaptive Thinking — это не один алгоритм, а целый конвейер:
- Быстрая оценка сложности: модель анализирует запрос в режиме реального времени, определяя его "сложностной профиль"
- Динамическое распределение ресурсов: вместо фиксированных think/ultrathink уровней, Opus 4.6 выбирает из спектра возможностей
- Адаптация в процессе: если reasoning заходит в тупик, система может выделить дополнительные ресурсы
- Экономия на тривиальном: простые запросы получают минимально необходимый reasoning
Самое интересное: система учится на ваших запросах. Если вы постоянно работаете с определённым типом задач (скажем, автоматизация кода), Adaptive Thinking начинает лучше предсказывать необходимую глубину для именно ваших use case.
Что изменилось в API?
Вот здесь многие разработчики пугаются: "Как, убрали контроль?" Нет, не убрали. Изменили парадигму.
Старый подход:
# Раньше
response = client.messages.create(
model="claude-3-opus-20240229",
max_tokens=4096,
thinking={'type': 'ultrathink', 'budget_tokens': 4096}, # Всё или ничего
messages=[...]
)
Новый подход:
# Теперь
response = client.messages.create(
model="claude-3-opus-4.6",
max_tokens=4096,
# thinking параметр УБРАН
# Adaptive Thinking работает автоматически
messages=[...]
)
Внимание: Если ваш код явно указывал thinking параметры, он сломается при переходе на Opus 4.6. Anthropic обещает обратную совместимость только для моделей до 4.6.
Реальная экономия: цифры не врут
Давайте посмотрим на холодные цифры. По данным Anthropic на февраль 2026:
| Тип запроса | Средняя экономия токенов | Что это значит для вас |
|---|---|---|
| Простые вопросы (факты, определения) | 65-80% | За те же деньги в 3-5 раз больше запросов |
| Код средней сложности (рефакторинг, дебаг) | 30-50% | Меньше сюрпризов в ежемесячном счёте |
| Сложный reasoning (математика, логические задачи) | -10% до +20% | Иногда дороже, но качество reasoning выше |
Отрицательная экономия? Да, для самых сложных задач Adaptive Thinking может выделять БОЛЬШЕ ресурсов, чем старый ultrathink. Но ключевое слово — "может". Если задача действительно требует глубины, модель это понимает и не экономит там, где нельзя.
Практические последствия для разработчиков
1. Конец микроменеджмента thinking-бюджета
Больше не нужно строить сложные эвристики: "Если запрос содержит слова X, Y, Z — ставлю ultrathink". Adaptive Thinking делает это за вас, причём на порядок точнее. Ваш код становится чище, проще, надёжнее.
2. Предсказуемые расходы (наконец-то!)
Раньше счёт за API мог отличаться в 10 раз от месяца к месяцу при одинаковом количестве запросов. Теперь колебания уменьшаются, потому что модель не тратит ресурсы попусту.
3. Качество вместо количества
Сэкономленные на простых запросах токены можно направить на действительно сложные задачи. Или просто платить меньше. Выбор за вами.
Типичные ошибки при переходе на Adaptive Thinking
Ошибка №1: Пытаться обмануть систему, добавляя "сложные" слова в простые запросы. Adaptive Thinking анализирует семантику, а не ключевые слова. Вы только усложните prompt engineering без результата.
Ошибка №2: Не обновлять мониторинг и алертинг. Раньше вы следили за thinking_tokens. Теперь нужно пересмотреть метрики — возможно, перейти на quality_score или подобные производные метрики.
Ошибка №3: Ожидать одинакового поведения для всех типов запросов. Adaptive Thinking — адаптивная система. Она будет вести себя по-разному для кодогенерации, анализа текста и математических задач.
Как проверить, работает ли Adaptive Thinking на полную?
Вот простой тест. Возьмите три типа запросов:
- "Какая столица Франции?" (тривиальный)
- "Напиши функцию для валидации email на Python" (средней сложности)
- "Докажи теорему Пифагора тремя разными способами" (сложный reasoning)
Отправьте их через Opus 4.6 API и сравните:
- Время ответа
- Количество использованных токенов (особенно reasoning токенов)
- Качество ответа
Если система работает правильно, вы увидите радикальную разницу в использовании ресурсов между запросами. Первый должен быть почти мгновенным с минимальными reasoning токенами. Третий — медленным, с глубоким reasoning.
Что это значит для будущего AI-разработки?
Adaptive Thinking — не просто фича. Это сигнал о том, куда движется индустрия:
Автоматизация мета-решений. Раньше разработчик решал, как модель должна думать. Теперь модель решает сама. Следующий шаг — автоматизация prompt engineering? Возможно. Anthropic уже экспериментирует с системами, которые сами задают уточняющие вопросы.
Экономика масштаба. Когда каждая модель оптимизирует собственное потребление ресурсов, стоимость AI-сервисов падает. Это открывает двери для приложений, которые раньше были экономически невыгодны.
Специализация reasoning. Adaptive Thinking в Opus 4.6 — общая система. Но что если следующие версии будут иметь доменно-специфичные адаптации? Медицинский reasoning, юридический анализ, научные вычисления — каждый со своей оптимизацией.
Стоит ли переходить на Opus 4.6 прямо сейчас?
Зависит от вашего use case:
| Ваш сценарий | Рекомендация | Почему |
|---|---|---|
| Много простых запросов (чат-боты, FAQ) | Да, немедленно | Экономия будет существенной |
| Сложные reasoning задачи (научные вычисления) | Протестировать сначала | Качество может быть лучше, но дороже |
| Критически важные системы (медицина, финансы) | Подождать стабильности | Adaptive Thinking — новая технология |
| Образовательные приложения | Идеально подходит | Разный уровень сложности вопросов |
Что дальше? Прогнозы на 2026-2027
Adaptive Thinking — только начало. Вот что может появиться в ближайшие год-два:
- Predictive Thinking: модель будет предсказывать необходимую глубину reasoning ещё до начала обработки
- Domain-Adaptive Thinking: специализированные оптимизации для разных доменов (код, математика, текст)
- Multi-Agent Adaptive Thinking: когда несколько агентов совместно оптимизируют reasoning ресурсы
- User-Calibrated Thinking: система будет учиться на ваших feedback и корректировать глубину reasoning под ваши предпочтения
Практический совет: как максимально использовать Adaptive Thinking
Вот что я делаю в своих проектах после перехода на Opus 4.6:
1. Убрал все thinking эвристики из кода
Выкинул около 500 строк кода, которые пытались угадать сложность запроса. Теперь это делает модель — и делает лучше.
2. Добавил мониторинг reasoning эффективности
Вместо thinking_tokens теперь отслеживаю ratio: (quality_score / tokens_used). Это показывает, насколько эффективно модель использует ресурсы для каждого типа задач.
3. Сегментировал запросы по типам
Разные типы запросов (код, анализ текста, Q&A) теперь идут разными pipeline. Так проще анализировать эффективность Adaptive Thinking для каждого use case.
4. Настроил A/B тестирование
10% трафика всё ещё идёт через старую модель с ручным thinking. Сравниваю качество и стоимость. Пока Opus 4.6 выигрывает по всем фронтам.
О чём молчит Anthropic?
Есть несколько моментов, которые компания не афиширует, но которые важны для разработчиков:
- Latency trade-off: Adaptive Thinking добавляет небольшую задержку на этапе оценки сложности. Для real-time систем это может быть критично
- Predictability: Раньше вы точно знали максимальную стоимость запроса (thinking_budget). Теперь верхняя граница менее определённая
- Edge cases: Некоторые типы запросов (особенно с математическими ловушками) могут получать недостаточный reasoning
Мой совет: тестируйте свои edge cases. Особенно те, где раньше требовался принудительный ultrathink.
Итог: меньше контроля, больше эффективности
Adaptive Thinking в Opus 4.6 забирает у нас иллюзию контроля над reasoning процессом. Но даёт взамен нечто более ценное — автоматическую оптимизацию, которая работает лучше, чем наши ручные эвристики.
Это как перейти с ручной коробки передач на автомат. Сначала недоверие: "А вдруг он не так переключит?" Потом привыкаешь. Потом понимаешь, что автомат переключает точнее и экономичнее, чем ты сам.
Стоит ли переходить? Если вы платите за токены из своего кармана — однозначно да. Если вы building the future of AI — тем более да. Это следующий логический шаг в эволюции reasoning систем.
P.S. И да, ваш ежемесячный счёт за API скорее всего уменьшится. Не говорите потом, что не предупреждал.