AutoScientist: ИИ-ученый для автоматического обучения моделей от Adaption | AiManual
AiManual Logo Ai / Manual.
13 Май 2026 Новости

AutoScientist — ИИ для автоматического обучения моделей: как Adaption обещает демократизировать frontier-тренинг

Анонс подхода co-optimization данных и модели. Как AutoScientist обещает демократизировать frontier-тренинг. Сара Хукер и революция в автономном обучении.

Хватит платить за облака — AI сам найдет оптимальную архитектуру

13 мая 2026 года компания Adaption, которую возглавляет Сара Хукер (та самая, что последние пять лет добивается, чтобы нейросети перестали жрать тераватт-часы), опубликовала препринт AutoScientist. Звучит как очередной маркетинговый пузырь? Возможно. Но за этим стоит не просто очередной AutoML — а попытка замкнуть петлю автоматического улучшения модели на уровне датасета, архитектуры и процедуры обучения одновременно. Co-optimization данных и модели — вот главный фокус.

Идея не нова. Еще в 2024 году мы видели Karpathy autoresearch, который учил агентов самостоятельно ставить эксперименты. Но AutoScientist идет дальше: он не просто запускает grid search, а перестраивает всю цепочку — от того, какие семплы отбрасывать, до того, как слои внимания связаны между собой.

Согласно препринту, AutoScientist использует двухуровневый оптимизатор: внешний цикл перебирает конфигурации датасета и архитектуры, внутренний — тренирует кандидата. Метрика качества — не просто loss, а композит из производительности, энергоэффективности и скорости инференса.

Почему это не очередной AutoML

AutoML умер еще в 2023-м. Все эти библиотеки вроде H2O или AutoKeras не выдерживали конкуренции с ручным тюнингом, когда дело касалось действительно больших моделей. Adaption заходит с другой стороны: вместо того чтобы оптимизировать гиперпараметры фиксированного пайплайна, AutoScientist предлагает изменять сам процесс сбора и фильтрации данных. Это похоже на то, что мы обсуждали в статье про автоматизацию с Codex и HF-skills, но там управление было ручным: скрипты, пайплайны. Здесь же все решает сама система.

Ключевой ингредиент — co-optimization. Вместо того чтобы сперва собрать максимально большой датасет, а потом долго и мучительно учить модель, AutoScientist одновременно подбирает подмножество данных (скажем, 5% от общего пула, но самых информативных) и адаптирует под него архитектуру. Звучит логично, но есть нюанс: как избежать переобучения на «популярные» паттерны?

Сара Хукер и ее война с «золотыми рыбками»

Сара Хукер известна своими работами по анализу внутренних представлений нейросетей. Еще в 2025 году она предупреждала, что naive fine-tuning превращает модель в «золотую рыбку» — теряет общие знания, заучивая узкие шаблоны. В статье про Entropy-Adaptive Finetuning мы разбирали, как контроль энтропии активаций помогает сохранить память. AutoScientist, судя по всему, встраивает этот принцип прямо в оптимизатор — он штрафует конфигурации, которые приводят к коллапсу внутреннего разнообразия.

Название AutoScientist — не просто метафора. Система действительно ведет себя как исследователь: выдвигает гипотезу (например, «если убрать все стоп-слова из тренировочных семплов, качество улучшится»), строит эксперимент (меняет датасет, дообучает маленький прокси-модель), проверяет результат и переходит к следующей гипотезе. Это напоминает рекурсивное самосовершенствование, о котором мы писали, но здесь петля замыкается не на коде, а на конфигурации данных и архитектуры.

Осторожно: в препринте нет ни одного бенчмарка на моделях размером больше 1B параметров. Все результаты получены на proxy-задачах типа GLUE и SuperGLUE с моделями до 350M. Перенос на frontier-тренинг (100B+) может потребовать совершенно других алгоритмов.

Сравнение с другими подходами

Подход Что оптимизируется Участие человека Применимость к frontier
AutoScientist Данные + архитектура + процедура Минимальное (задать бюджет) Не доказана
Karpathy autoresearch Эксперименты (гиперпараметры) Нулевое (агент пишет код) Только для мелких
HF-Skills Pipeline Пайплайн развертывания Написать пайплайн один раз Да, но не оптимизирует обучение
Dr. Zero Агентная политика без данных Нулевое Игрушечные среды

Как видно, AutoScientist пытается закрыть дыру между полным AutoML и агентными подходами. Он не требует писать код экспериментов (как в личном ИИ-лаборанте), но и не ограничен фиксированным датасетом (как Dr. Zero).

Что раздражает?

Откровенно говоря, деталей мало. Препринт — 12 страниц, из которых половина — обзор prior work. Никакого открытого датасета или весов. Никакой инструкции «возьми и запусти». Adaption, видимо, планирует монетизировать это как сервис — облачная платформа, где вы загружаете свои данные, а AutoScientist подбирает оптимальный пайплайн. Удобно? Да. Но о демократизации frontier-тренинга говорить пока рано. Как заметили авторы статьи про flapping airplanes vs scaling, настоящее понимание приходит не от автоматизации, а от умения задавать правильные вопросы. AutoScientist задает их сам, но пока только в рамках узкого пространства конфигураций.

Еще один тревожный сигнал: Сара Хукер ушла из Cohere в 2025 году и основала Adaption именно для того, чтобы «сделать frontier-тренинг доступным каждому». Но первые клиенты — крупные корпорации с NDA. Парадокс.

Прогноз: инструмент для корпоративных R&D, не для стартапов

Я поставлю на то, что в ближайшие полгода мы увидим демо на открытых данных и, возможно, API. Но внутренняя сложность co-optimization требует чудовищных вычислительных ресурсов — внешний цикл может гонять тысячи конфигураций, каждая из которых требует полного обучения прокси-модели. Если Adaption не найдет способ сократить это на порядок ускорения за счет emulation или surrogate моделей, то для массового пользователя сервис останется игрушкой.

Впрочем, если они смогут свести co-optimization к нескольким дням работы на одной H100, это изменит правила игры. Особенно в контексте обучения без явной награды — там тоже нужно автоматически адаптировать процедуру.

А пока — будем следить и ждать открытых бенчмарков. Без них любой анонс, увы, остается просто красивым пресс-релизом.

Подписаться на канал