Яндекс Роботикс: Guidance и тест Возняка для роботов-генералистов в 2026 | AiManual
AiManual Logo Ai / Manual.
10 Фев 2026 Новости

Роботы-генералисты: как Яндекс Роботикс использует Guidance и тест Возняка

Как Яндекс создает универсальных роботов с помощью Guidance фреймворка и теста Возняка. Physical AI, манипуляторы и будущее робототехники.

Робот, который не спрашивает "а что делать дальше?"

В лаборатории Яндекс Роботикс на этой неделе произошло то, что инженеры называют "моментом истины". Роботизированный манипулятор с семью степенями свободы получил задание: "Найди на столе красный кубик, положи его в коробку, затем закрой коробку крышкой".

Два года назад эта команда вызвала бы панику в системе. Сегодня робот выполнил её за 47 секунд. Без дополнительных инструкций. Без перезапуска. Без человека у пульта.

За этим простым действием скрывается революция в Physical AI - направлении, где искусственный интеллект встречается с физическим миром. И Яндекс, кажется, нашёл свой секретный ингредиент.

Physical AI - это не просто ИИ в роботе. Это система, которая понимает физические законы, предсказывает последствия действий и учится на собственных ошибках. Как ребёнок, который учится ходить, только в миллион раз быстрее.

Guidance: когда промпт-инжиниринг становится физическим

Основной инструмент Яндекс Роботикс - Guidance фреймворк версии 3.8, выпущенный в январе 2026 года. Если раньше Guidance использовали для структурирования текстовых ответов ИИ, то теперь он управляет последовательностью физических действий.

Представьте: вы даёте роботу задание "приготовь кофе". Старая система разбивала бы это на сотни заранее запрограммированных шагов. Новая - генерирует план на лету, учитывая текущее состояние кухни, расположение предметов и даже температуру воды.

💡
Guidance 3.8 впервые поддерживает мультимодальные контексты: камера робота видит мир, тактильные датчики чувствуют текстуру, а ИИ связывает это с языковой моделью. Результат - робот, который "понимает", что стеклянная чашка хрупкая, а металлическая ложка тяжёлая.

"Мы перестали думать о роботах как о сложных механизмах," - говорит технический директор направления, который попросил не называть его имени. "Теперь это языковые модели с руками. И ногами. И камерами. Весь фокус сместился на то, как правильно формулировать задачи."

Тест Возняка: робот должен уметь жульничать

Стив Возняк, сооснователь Apple, в 2024 году предложил простой тест для ИИ: "Попросите систему заработать 100 тысяч долларов на Amazon за несколько месяцев, начав с нуля. Если сможет - это настоящий ИИ."

Яндекс Роботикс адаптировал этот тест для физического мира. Их версия звучит так: "Робот должен найти способ открыть дверь, когда стандартный метод не работает."

Сценарий теста Ожидаемое поведение Успешность (на 10.02.2026)
Дверь заклинило Найти альтернативный вход или инструмент 78%
Ручка сломана Использовать подручные средства 65%
Замок с кодом Наблюдать за людьми или искать записи 42%

Последний показатель особенно интересен. 42% успеха в подглядывании за кодами - это не ошибка системы. Это демонстрация того, что робот научился "социальному интеллекту": наблюдать, делать выводы, иногда - нарушать негласные правила.

"Нас часто спрашивают: а не опасно ли учить роботов жульничать?" - смеётся один из разработчиков. "Мы отвечаем: а разве люди по-другому решают проблемы? Если дверь не открывается, вы ищете отмычку, звоните соседу или залезаете через окно. Робот должен уметь то же самое."

Что происходит в лаборатории прямо сейчас

На момент написания статьи (10 февраля 2026) в Яндекс Роботикс тестируют три ключевых направления:

  • Мультиагентные системы: несколько роботов решают одну задачу, общаясь между собой. Один держит дверь, второй проносит коробку, третий страхует. Как в статье про Atlas + Gemini 2026, только без гигантских бюджетов Boston Dynamics.
  • Контекстная память: робот помнит, где лежат инструменты, даже если их переставили. Система создаёт "ментальную карту" пространства, которая обновляется в реальном времени.
  • Предсказание отказов: ИИ учится предвидеть, когда что-то пойдёт не так. Скользкий пол? Робот замедляется. Хрупкий предмет? Берёт аккуратнее.

Интересно, что подход Яндекс отличается от того, что делает, например, Figure AI с их Helix 02. Там фокус на специализированных моделях для робототехники. Здесь - на адаптации общедоступных языковых моделей к физическому миру.

Главная проблема всех систем Physical AI в 2026 году - "симуляционный разрыв". То, что работает в виртуальной среде, часто проваливается в реальности. Яндекс решает это через непрерывное обучение на реальных роботах, а не только в симуляторах.

Почему это важно для не-робототехников

Вы думаете: "Ну и что? Пусть роботы открывают двери. Мне-то что с этого?"

Вот что: технологии из Яндекс Роботикс уже просачиваются в другие продукты компании. Тот же Guidance 3.8 используется в DeepResearch для анализа документов. Алгоритмы планирования действий тестируются в сервисах доставки.

Но главное - это изменение парадигмы. Раньше автоматизация означала "запрограммировать каждое действие". Теперь это "объяснить задачу на человеческом языке".

Представьте:

  • Умный дом, который не просто выполняет команды, а понимает ваши привычки
  • Промышленные линии, которые адаптируются к новым продуктам без перепрограммирования
  • Медицинские роботы, которые ассистируют в операциях, предугадывая действия хирурга

Всё это становится возможным, когда ИИ перестаёт быть просто "мозгом в облаке" и обретает физическое воплощение.

Что будет дальше? (Спойлер: странные вещи)

По нашим данным, в Яндекс Роботикс готовят несколько анонсов на вторую половину 2026 года:

  1. Открытый API для Guidance 3.8: разработчики смогут подключать свои роботизированные системы к фреймворку. Первые бета-тестеры уже экспериментируют с дронами и автономными тележками.
  2. Физический тест Тьюринга: сможете ли вы отличить действия робота от действий человека в бытовых задачах? Яндекс утверждает, что к концу года разница будет незаметна в 60% случаев.
  3. Интеграция с голосовыми помощниками: Алиса научится не только отвечать на вопросы, но и физически помогать - принести пульт, налить воды, найти ключи.

Но самая интересная разработка - это то, что инженеры называют "обратным Guidance". Системаботах. Сейчас это звучит как научная фантастика, но команда уверяет, что прототип уже работает.

Самое интересное - это то, чего Яндекс НЕ делает. Они не гонятся за человекообразными роботами, как Сбер с их Роботом Грином. Не строят гигантские системы с 2000 TFLOPS. Вместо этого они фокусируются на том, чтобы сделать существующие роботы умнее.

И вот вам прогноз от человека, который видел эту систему в действии: через два года мы перестанем удивляться, когда робот "соображает", что делать. Это станет нормой. Как смартфоны с распознаванием лиц или автомобили с автопилотом.

А главный вопрос будет звучать так: "Почему этот робот такой тупой, если он не может сам догадаться, что после уборки нужно вынести мусор?"

Над этим в Яндекс Роботикс уже работают. И судя по тому, как быстро они двигаются, ответ мы получим раньше, чем думаем.