На прошлой неделе Runway ML объявила о раунде финансирования на $315 млн. Оценка компании - $5.3 млрд. Деньги, конечно, впечатляют, но куда интереснее, куда они их потратят. Судя по всему - на world models, ту самую технологию, которая должна перевернуть представление о том, как ИИ создает контент.
Пока все обсуждают очередной релиз Gen 4.5 с улучшенной согласованностью объектов в кадре, Runway тихо переключает передачу. От генерации отдельных клипов - к созданию целых миров.
Зачем нужны world models, если Gen 4.5 уже неплох?
Вот в чем проблема: даже самая крутая генерация видео сегодня - это по сути продвинутый коллаж. Система берет миллионы фрагментов из обучающих данных и комбинирует их. Физика страдает, логика событий хромает, а персонажи внезапно меняют форму между кадрами.
Runway поняла - дальше так нельзя. Потому что следующий рубеж - не качество картинки (оно уже почти фотореалистичное), а когерентность. Способность модели поддерживать логику мира на протяжении минут, а не секунд.
Их главный конкурент здесь - Google DeepMind с их проектом Genie. Но у Google подход академический, а у Runway - коммерческий. Разница примерно как между исследовательским реактором и атомной электростанцией.
Любопытный факт: часть инвестиций ($315 млн) пришла от тех же фондов, что вкладывают в vLLM - инфраструктуру для инференса. Совпадение? Не думаю.
Что изменится для разработчиков (и всех остальных)
Во-первых, API. Сейчас вы вызываете модель, передаете промпт, получаете видео. С world models все сложнее. Нужно будет описывать не сцену, а правила мира. Физические законы, поведение персонажей, возможные события.
Представьте, что вы не режиссер, а бог-создатель. Вы задаете начальные условия, а модель генерирует не предопределенный сценарий, а ветвящееся дерево возможностей.
- Для игровой индустрии: процедурная генерация миров станет тривиальной задачей. Забудьте про ручную расстановку объектов.
- Для кино: превизуализация превратится из статичной раскадровки в интерактивный симулятор.
- Для обучения ИИ: вместо реальных данных можно будет использовать синтетические миры. Что особенно актуально в свете истощения качественных датасетов.
Но есть нюанс. World models требуют совершенно другой вычислительной мощности. Не графические процессоры для матричных умножений, а специализированные чипы для симуляции физики. Здесь Runway может столкнуться с тем же, с чем сталкиваются все - железо под столом против облаков.
Конкуренты уже наступают на пятки
Пока Runway собирает деньги, другие не спят.
| Игрок | Подход | Финансирование | Статус на 10.02.2026 |
|---|---|---|---|
| Runway ML | Коммерческие world models | $315 млн (оценка $5.3B) | Анонсирован переход к world models |
| Google DeepMind | Исследовательский проект Genie | Бюджет Google | Демо-версии, нет коммерческого API |
| Higgsfield | Видео без «AI slop» | $1.3 млрд | Фокус на качество, а не сложность |
| World Labs | Open-source world models | $85 млн | Релиз первых моделей ожидается в Q2 2026 |
Интересно, что подходы различаются кардинально. Higgsfield, например, вообще не гонится за сложностью. Их цель - сделать видео, которое не выглядит как сгенерированное ИИ. Прямо противоположная философия.
А World Labs делают ставку на open-source, пытаясь повторить историю Stable Diffusion в мире видео. Рискованный ход, учитывая стоимость обучения таких моделей.
Проблемы, которые никто не озвучивает
Первая - данные. Для обучения world models нужны не просто видео с YouTube, а аннотированные симуляции. Где физика объектов помечена, где есть информация о причинно-следственных связях.
Таких данных почти нет. Компании вроде InfiniMind пытаются решить проблему, «вскрывая темные видеоархивы», но масштаб несопоставим.
Вторая проблема - вычислительная. World models по определению тяжелее традиционных генеративных моделей. Они должны не просто предсказывать пиксели, а симулировать физику. Это другой класс сложности.
Третья - самая интересная. Как оценивать качество world models?
С картинками все просто - FID, CLIP score. С видео сложнее - есть метрики согласованности, но они далеки от идеала. А как измерить, насколько «реалистичен» созданный моделью мир? Нет таких метрик. Придется придумывать.
Что будет через год
Судя по дорожной карте Runway, к концу 2026 года мы увидим:
- Бета-версию world models API. Скорее всего, с ограниченным функционалом - простые физические симуляции, базовые взаимодействия объектов.
- Резкий рост стоимости инференса. World models жрут ресурсы. Будьте готовы к счетам на порядок выше, чем за Gen 4.5.
- Первые скандалы. Когда модель создаст мир с непредвиденным поведением (а она это сделает), кто будет виноват? Разработчик? Пользователь? Сама модель?
- Консолидацию рынка. Мелкие игроки не потянут такие разработки. Останутся 2-3 крупных компании и несколько нишевых open-source проектов.
Инвесторы явно верят в этот тренд. Тот же a16z, который вложился в Runway, активно инвестирует в AI-инфраструктуру. Они видят, куда дует ветер.
А ветер дует в сторону агентных ИИ. Систем, которые не просто генерируют контент, а действуют в симулированных мирах. World models - фундамент для этого.
Остается вопрос: а нужно ли это всем? Пока большинство пользователей довольствуются мемами и короткими клипами. Но индустрия уже заглядывает дальше - в игры, кино, образование. Там, где нужны не картинки, а целые вселенные.
Runway ставит на красное. $315 млн - серьезная ставка. Выиграют ли они? Посмотрим. Но одно ясно точно: генерация видео больше не будет прежней.
P.S. Если думаете, что это все теория, посмотрите на мирные модели против LLM. Физика побеждает текст. Это уже происходит.