Слон в посудной лавке с триллионом параметров
В 2026 году парадигма масштабирования выглядит как слон, который решил, что если он станет еще больше, то наконец-то пролезет в игольное ушко. GPT-5? 10 триллионов параметров. Gemini Ultra 2? Еще больше. Claude 4? Вы не поверите. Каждый релиз - это гонка за размером, где побеждает тот, у кого больше терафлопсов, петабайтов и нейронов.
Но есть проблема. Вернее, несколько.
Энергопотребление одного инференса сравнялось с годовым потреблением небольшого города. Тренировочные датасеты выскребли весь интернет до блеска. А качество... качество растет по закону убывающей отдачи, который теперь называют "плато возможностей AI".
По данным на январь 2026, тренировка модели размером с GPT-5 обходится в $250-300 миллионов. При этом прирост качества относительно GPT-4 составляет всего 15-20% в большинстве бенчмарков. Экономика масштабирования трещит по швам.
Машущие крыльями самолеты: $180 миллионов на ересь
А теперь представьте, что кто-то приходит к венчурным инвесторам и говорит: "Давайте сделаем самолет, который машет крыльями как птица". В 2024 году это звучало бы как шутка. В 2026 - это Google Ventures вкладывает $180 миллионов в компанию, которая именно этим и занимается.
Flapping Airplanes - не буквально самолеты с машущими крыльями. Это метафора. Идея, что иногда нужно отказаться от очевидного пути (делать крылья больше, двигатели мощнее) и попробовать что-то принципиально иное. Даже если это выглядит глупо.
В AI это означает: вместо того чтобы наращивать параметры, изменить архитектуру. Вместо того чтобы скрести интернет в поисках данных, научиться учиться на малом. Вместо того чтобы предсказывать следующий токен, понять физику процесса.
Математика против статистики: старый спор на новый лад
Большие языковые модели - это в своей основе статистические машины. Они не понимают математику, они угадывают следующий символ в последовательности. И это работает. До поры.
Пока вы не попросите GPT-5 решить дифференциальное уравнение, которое не встречалось в тренировочных данных. Или спрогнозировать физический процесс, где нужно не угадать паттерн, а вычислить результат.
Именно об этом пишут в статье "Вычислять, а не предсказывать". Гибридные подходы, где нейросети работают вместе с символическими системами, где обучение дополняется дедукцией - это не будущее. Это настоящее, которое почему-то все еще называют исследовательским.
В 2026 году "мирные модели" (physics-informed neural networks) показывают на 40% лучшие результаты в прогнозировании климата, чем LLM в 10 раз большего размера. Потому что они знают законы сохранения энергии. А не угадывают их.
Экономика безумия: почему венчурный капитал любит еретиков
Здесь начинается самое интересное. Пока OpenAI, Anthropic и Google соревнуются, у кого модель больше, венчурный капитал тихо перетекает в исследовательские проекты. Почему?
- Барьеры входа в гонку масштабирования недоступны для стартапов. Нужны сотни миллионов долларов только на железо.
- Дифференциация в исследовательском подходе создает реальные патенты, а не просто "еще одну большую модель".
- Потенциальная отдача от прорыва в архитектуре на порядки выше, чем от улучшения существующего подхода на 5%.
Посмотрите на AgentCommander. Вместо того чтобы делать агентов умнее через масштабирование, они заставляют их эволюционировать, строить деревья решений, учиться на ошибках предков. Это дешевле. Это эффективнее. И это нельзя скопировать, просто накинув еще слоев трансформера.
| Подход | Инвестиции 2025-2026 | Прорывные результаты | Риск |
|---|---|---|---|
| Масштабирование (Scaling) | $10B+ (корпоративное финансирование) | Постепенные улучшения, плато | Низкий (предсказуемо, но дорого) |
| Исследовательский (Flapping Airplanes) | $2-3B (венчурный капитал) | Потенциальные прорывы, новая парадигма | Высокий (может не сработать вообще) |
Биология как инструкция: учиться у природы, а не у интернета
Самая ироничная вещь в современном AI: мы пытаемся создать интеллект, но игнорируем единственный работающий пример, который у нас есть - биологический мозг. Не в смысле "скопировать нейроны", а в смысле принципов работы.
Как пишут в "Инопланетяне в наших серверах", исследователи начали применять методы экологии к изучению AI-систем. Как разные модели взаимодействуют в "экосистеме"? Как они эволюционируют под давлением среды (читай: пользовательских запросов)?
Это не метафора. В 2026 году есть проекты, где AI-агенты живут в симуляциях, размножаются, мутируют и подвергаются естественному отбору. И учатся в тысячи раз эффективнее, чем через gradient descent на статических датасетах.
DeepMind, кстати, это поняли еще раньше. Их работа над AI для экологии и сохранения видов - это не просто "применение AI к биологии". Это взаимное обогащение. Биология учит AI, как учиться. AI помогает биологии решать задачи.
Практические последствия: что это значит для разработчиков в 2026?
Если вы сейчас выбираете, куда двигаться - в scaling engineering или в research - выбор становится очевидным. Первое превращается в индустрию с предсказуемой карьерой и предсказуемо убывающей отдачей. Второе - в лотерею с билетом в будущее.
Но есть и более приземленные выводы:
- Не верьте хайпу вокруг размера модели. GPT-6 с 100 триллионами параметров не решит проблему рассуждений. Потому что это архитектурная проблема, а не проблема масштаба.
- Смотрите на энергоэффективность. Модель, которая в 10 раз меньше, но дает сравнимые результаты - это не компромисс. Это прорыв. Особенно в свете тренда на edge AI, где каждые ватты на счету.
- Изучайте гибридные подходы. Нейросеть + символьные системы. Градиентный спуск + эволюционные алгоритмы. Статистика + физика. Будущее за комбинациями, а не за чистотой подхода.
И самый главный совет: следите не за тем, кто выпустил самую большую модель. Следите за тем, кто выпустил самую странную. Как эксперимент Berkeley с AI для управления трафиком, где вместо одной централизованной модели используют рои простых агентов, которые учатся координироваться. Это дешевле, надежнее и - что важно - понятнее.
Конец эпохи или ее трансформация?
Парадигма масштабирования не умрет. Она станет нишевой. Как паровые двигатели - все еще используются, но не для всего.
Будут задачи, где больше данных и параметров - единственный путь. Но их будет меньше, чем кажется. Большинство практических проблем требуют не большего масштаба, а лучшего понимания.
В 2026 году мы видим начало разделения. С одной стороны - корпоративные AI-фабрики, производящие гигантские модели для общих задач. С другой - исследовательские лаборатории и стартапы, которые ищут принципиально новые подходы для специфических проблем.
И между ними - вся индустрия, которая должна решить: продолжать кормить слона или начать строить самолет с машущими крыльями. Выбор, который определит не только следующую модель, но и следующее десятилетие AI.
Мой прогноз? К 2028 году половина сегодняшних "scaling engineers" переквалифицируется в "research engineers". Потому что строить все большее и большее - это скучно. А придумывать, как сделать иначе - это то, зачем мы вообще занимаемся технологиями.
И да, если вы сейчас думаете "но мой босс хочет просто fine-tune GPT-5 под нашу задачу" - покажите ему эту статью. И спросите, хочет ли он быть тем, кто fine-tune'ил последнюю модель перед прорывом. Или тем, кто создал первую модель после него.