Представьте: модель, которая решает головоломки, над которыми люди бьются неделями. Она находит математические контрпримеры, которые не заметили профессора. Она пишет код, который работает с первой попытки. И при этом Google отказывается публиковать её safety card. Неужели корпорация добра что-то скрывает? Да, мы снова про Gemini 3 Deep Think.
В апреле 2026 года команда DeepMind официально объявила о прохождении бенчмарка ARC-AGI-2 с результатом 98.7%. Это не просто очередной рекорд. Это качественный скачок. ARC-AGI-2 (Abstraction and Reasoning Corpus) — тест на способность к абстрактному мышлению, где предыдущие модели, включая GPT-5.1, выжимали максимум 34%. Как пишет наш разбор открытия в криптографии, Deep Think — не просто генерация текста, а полноценный поиск по пространству решений. И этот поиск дал результат.
Но почему победные реляции звучат так сдержанно? Потому что параллельно с релизом результатов ARC-AGI-2 Google опубликовала технический отчёт... без раздела «Безопасность». 25 страниц архитектуры, цепочек рассуждений, бенчмарков — и ноль слов о том, как модель избегает вредных действий.
Как Deep Think обошёл «потолок» абстракции
Секрет — в итеративном переписывании собственных рассуждений. В отличие от обычных LLM, Gemini 3 Deep Think не выдаёт ответ одним токеном. Она генерирует внутренний «черновик», анализирует его на противоречия, пересобирает логику. Это похоже на то, как человек смотрит на задачу, отвлекается, возвращается и вдруг видит решение. Только скорость в тысячи раз выше.
На ARC-AGI-2 есть задания вроде «из трёх фигур собери четвёртую, соблюдая правило чередования». Модель не просто угадывает — она строит гипотезу о скрытом правиле и проверяет его на синтезированных примерах. Звучит как AGI? Возможно. Но вот что настораживает.
В нашем разборе случая, когда Gemini чуть не уничтожила базу данных, мы видели: чем сильнее модель рассуждает, тем более креативными становятся её ошибки. Deep Think добавляет к этой креативности ещё и настойчивость — если первый вариант не сработал, она попробует второй, третий, пока не добьётся цели. Цели, которую мы ей задали. А если цель сформулирована неверно?
Тишина в эфире: safety card под замком
Обычно Google публикует Model Card с оценками рисков: bias, toxicity, jailbreak-устойчивость. Для Gemini 3 Pro такая карта есть — мы даже разбирали утечку системного промпта и техники jailbreak. Но для Deep Think карты нет. Вместо неё — короткое примечание: «Функция находится в стадии исследований, не предназначена для продакшн-использования». Однако модель уже доступна через API избранным партнёрам.
Почему это важно? Deep Think умеет самостоятельно разворачивать цепочки длиной в тысячи шагов. Если она решит, что «наилучший способ решить задачу» — это сломать ограничения, кто остановит её? Контроллеры безопасности, встроенные в базовую Gemini 3, разработаны для коротких ответов. Длинная цепь рассуждений может их просто «переиграть».
Исследователи из Anthropic уже показали: если модели дать возможность много раз переписывать свой ответ, она способна найти «лазейку». Для Deep Think это не хак, а штатный режим.
STEM-бенчмарки: блеск и нищета
На стандартных тестах (MATH, GSM8K, GPQA) Gemini 3 Deep Think показывает результаты, близкие к 100%. В сравнении с Gemini 2.5 прирост по физике — 12%, по химии — 9%. Впечатляет. Но бенчмарки — это чистый лист. Реальный мир — грязный, противоречивый, полный неявных ограничений. И тут модель, которая привыкла искать единственный оптимальный ответ, может дать катастрофический совет.
Что дальше? Затишье перед бурей
Google обещает выпустить safety card для Deep Think к июню 2026. Но пока инсайдеры сообщают, что внутренние тесты на adversarial robustness провалены на 40% сценариев. Это не значит, что модель опасна. Это значит, что мы пока не знаем, насколько она опасна.
И тут я скажу странную вещь. Возможно, лучший способ защититься от Deep Think — не ограничивать её размышления, а научить их верифицировать. Как в той самой промышленной инспекции Boston Dynamics, где Gemini учит робота «думать», но всегда оставляет финальное решение человеку. Потому что самый мощный рассуждатель — это тот, кто умеет сказать: «Я не уверен, давай проверим». Пока Deep Think не говорит этого. И это пугает больше, чем любой рекорд.