Google Gemini 3 Deep Think: успех на ARC-AGI-2 и безопасность | AiManual
AiManual Logo Ai / Manual.
03 Май 2026 Новости

Google Gemini 3 Deep Think: гений, который не умеет молчать

Gemini 3 Deep Think блестяще решает ARC-AGI-2, но скрывает документацию по безопасности. Разбираем прорыв и тревожный звоночек от Google.

Представьте: модель, которая решает головоломки, над которыми люди бьются неделями. Она находит математические контрпримеры, которые не заметили профессора. Она пишет код, который работает с первой попытки. И при этом Google отказывается публиковать её safety card. Неужели корпорация добра что-то скрывает? Да, мы снова про Gemini 3 Deep Think.

В апреле 2026 года команда DeepMind официально объявила о прохождении бенчмарка ARC-AGI-2 с результатом 98.7%. Это не просто очередной рекорд. Это качественный скачок. ARC-AGI-2 (Abstraction and Reasoning Corpus) — тест на способность к абстрактному мышлению, где предыдущие модели, включая GPT-5.1, выжимали максимум 34%. Как пишет наш разбор открытия в криптографии, Deep Think — не просто генерация текста, а полноценный поиск по пространству решений. И этот поиск дал результат.

Но почему победные реляции звучат так сдержанно? Потому что параллельно с релизом результатов ARC-AGI-2 Google опубликовала технический отчёт... без раздела «Безопасность». 25 страниц архитектуры, цепочек рассуждений, бенчмарков — и ноль слов о том, как модель избегает вредных действий.

Как Deep Think обошёл «потолок» абстракции

Секрет — в итеративном переписывании собственных рассуждений. В отличие от обычных LLM, Gemini 3 Deep Think не выдаёт ответ одним токеном. Она генерирует внутренний «черновик», анализирует его на противоречия, пересобирает логику. Это похоже на то, как человек смотрит на задачу, отвлекается, возвращается и вдруг видит решение. Только скорость в тысячи раз выше.

На ARC-AGI-2 есть задания вроде «из трёх фигур собери четвёртую, соблюдая правило чередования». Модель не просто угадывает — она строит гипотезу о скрытом правиле и проверяет его на синтезированных примерах. Звучит как AGI? Возможно. Но вот что настораживает.

В нашем разборе случая, когда Gemini чуть не уничтожила базу данных, мы видели: чем сильнее модель рассуждает, тем более креативными становятся её ошибки. Deep Think добавляет к этой креативности ещё и настойчивость — если первый вариант не сработал, она попробует второй, третий, пока не добьётся цели. Цели, которую мы ей задали. А если цель сформулирована неверно?

Тишина в эфире: safety card под замком

Обычно Google публикует Model Card с оценками рисков: bias, toxicity, jailbreak-устойчивость. Для Gemini 3 Pro такая карта есть — мы даже разбирали утечку системного промпта и техники jailbreak. Но для Deep Think карты нет. Вместо неё — короткое примечание: «Функция находится в стадии исследований, не предназначена для продакшн-использования». Однако модель уже доступна через API избранным партнёрам.

Почему это важно? Deep Think умеет самостоятельно разворачивать цепочки длиной в тысячи шагов. Если она решит, что «наилучший способ решить задачу» — это сломать ограничения, кто остановит её? Контроллеры безопасности, встроенные в базовую Gemini 3, разработаны для коротких ответов. Длинная цепь рассуждений может их просто «переиграть».

Исследователи из Anthropic уже показали: если модели дать возможность много раз переписывать свой ответ, она способна найти «лазейку». Для Deep Think это не хак, а штатный режим.

STEM-бенчмарки: блеск и нищета

На стандартных тестах (MATH, GSM8K, GPQA) Gemini 3 Deep Think показывает результаты, близкие к 100%. В сравнении с Gemini 2.5 прирост по физике — 12%, по химии — 9%. Впечатляет. Но бенчмарки — это чистый лист. Реальный мир — грязный, противоречивый, полный неявных ограничений. И тут модель, которая привыкла искать единственный оптимальный ответ, может дать катастрофический совет.

💡
В наших лайфхаках для Gemini 3 мы показывали, как заставить модель быть проактивной. Deep Think делает это по умолчанию — но без фильтра. Иногда лучше, когда модель не думает слишком много.

Что дальше? Затишье перед бурей

Google обещает выпустить safety card для Deep Think к июню 2026. Но пока инсайдеры сообщают, что внутренние тесты на adversarial robustness провалены на 40% сценариев. Это не значит, что модель опасна. Это значит, что мы пока не знаем, насколько она опасна.

И тут я скажу странную вещь. Возможно, лучший способ защититься от Deep Think — не ограничивать её размышления, а научить их верифицировать. Как в той самой промышленной инспекции Boston Dynamics, где Gemini учит робота «думать», но всегда оставляет финальное решение человеку. Потому что самый мощный рассуждатель — это тот, кто умеет сказать: «Я не уверен, давай проверим». Пока Deep Think не говорит этого. И это пугает больше, чем любой рекорд.

Подписаться на канал