Один промпт для всех: зачем это нужно
Сравнивать AI-видеогенераторы по демо-роликам из маркетинговых презентаций - все равно что выбирать автомобиль по рекламным буклетам. Красиво, но бесполезно. Каждый сервис показывает свои лучшие работы, сгенерированные идеальными промптами после сотен попыток.
Я решил провести честный тест: один сложный промпт, шесть разных систем, одинаковые условия. Цель - понять, какая модель реально справляется со сложными задачами, а какая только красиво выглядит на бумаге.
Тестовый промпт: "Молодая женщина в красном платье идет по оживленной улице ночного Токио под дождем. Капли дождя стекают по витринам магазинов, отражая неоновые вывески. Она останавливается перед кофейней, смотрит на свое отражение в стекле, затем поворачивается и улыбается. Вдали проезжает старый желтый такси. Стиль кинематографичный, глубина резкости, движение камеры плавное"
Участники гонки
В тесте участвовали шесть систем, которые на январь 2026 года считаются лидерами рынка:
- Google Veo 2.0 - последняя версия на момент теста
- Runway Gen-3 Alpha - обновленная модель с улучшенной физикой
- Kling AI v3 - китайский конкурент с поддержкой 4K
- Hailuo VideoGen - новая модель от китайской компании
- Stable Video Diffusion 1.1 - open-source вариант
- Pika Labs 1.5 - популярный среди креаторов инструмент
Google Veo 2.0: почти кино, но не совсем
Veo справился с промптом на 8 из 10. Женщина в красном платье - есть. Улица Токио - есть. Неоновые вывески - есть. Дождь... ну, дождь как-то странный. Капли больше похожи на графический артефакт, чем на настоящий дождь.
Самое интересное: отражение в стекле кофейни. Veo его сгенерировал, но отражение не совсем соответствует реальной фигуре женщины. Как будто в зеркале отражается немного другой человек. Этот эффект мы видели в тесте реализма AI-видео, где модели стабильно проваливают тесты на физическую согласованность.
Runway Gen-3 Alpha: креативность ценой стабильности
Runway сделал самое кинематографичное видео из всех. Плавное движение камеры, красивая глубина резкости, атмосферная цветовая гамма. Но... женщина в красном платье периодически меняла форму лица. В одном кадре у нее были азиатские черты, в другом - европейские.
Дождь Runway обработал лучше всех - капли выглядели естественно, стекали по поверхностям с правильной физикой. Но стабильность персонажа - катастрофа. Это напоминает проблемы, которые мы обсуждали в аудите галлюцинаций LLM, только в видеоформате.
Kling AI v3: китайское чудо с подвохом
Kling удивил. 4K-качество действительно впечатляет - детализация неоновых вывесок, текстура мокрого асфальта, отражения в лужах. Но есть нюанс: китайские модели часто тренируются на азиатских датасетах, поэтому "молодая женщина" автоматически получает азиатскую внешность, даже если это не указано в промпте.
Самое слабое место Kling - плавность движения. Камера дергается, персонаж двигается рывками. Сцена с улыбкой выглядела неестественно - как будто лицо анимировали начинающие 3D-художники. Интересно, что в гонке китайских LLM мы видели похожий паттерн: отличные результаты в специфических задачах, но проблемы с универсальностью.
| Модель | Качество видео | Стабильность персонажа | Физика дождя | Общий балл |
|---|---|---|---|---|
| Google Veo 2.0 | 8/10 | 9/10 | 6/10 | 7.7 |
| Runway Gen-3 Alpha | 9/10 | 5/10 | 9/10 | 7.7 |
| Kling AI v3 | 9/10 | 8/10 | 7/10 | 8.0 |
| Hailuo VideoGen | 7/10 | 7/10 | 6/10 | 6.7 |
Hailuo VideoGen: темная лошадка
Hailuo - новичок на рынке, о котором мало кто слышал. Результаты... странные. Видео выглядит как смесь разных стилей: неоновые вывески в стиле аниме, дождь как из видеоигры 2010 года, женщина с фотореалистичным лицом, но пластиковыми волосами.
Зато Hailuo единственный корректно сгенерировал желтое такси вдали. Оно действительно было старым, с характерными деталями. Может быть, в их тренировочных данных было много такси? Как в случае с SenseNova-MARS, которая отлично справлялась с определенными категориями объектов, но проваливала другие.
Open-source и niche-игроки
Stable Video Diffusion 1.1 показал, почему open-source пока отстает от коммерческих решений. Видео сгенерировалось, но качество было ближе к 720p, чем к 1080p. Дождь выглядел как шум, а не как капли воды. Зато стабильность персонажа - 10/10, лицо не менялось ни на кадр.
Pika Labs 1.5 сделал самый креативный вариант: женщина в красном платье превратилась в стилизованного аниме-персонажа, а Токио - в футуристический мегаполис. Красиво, но не соответствует промпту. Pika явно специализируется на художественных, а не реалистичных видео.
Техническая деталь: все модели кроме Stable Video Diffusion требуют серьезных вычислительных ресурсов. Если вы планируете работать с AI-видео локально, проверьте нашу статью про выбор локальных LLM, чтобы не взорвать видеопамять.
Что происходит за кулисами
Почему такие разные результаты? Потому что каждая модель использует разную архитектуру и тренировочные данные.
Veo и Runway тренируются на огромных датасетах из кино и видео, поэтому у них лучше кинематографичность. Kling использует преимущественно азиатский контент. Hailuo, судя по всему, смешивает разные источники. Stable Video Diffusion ограничен открытыми датасетами.
Интересный факт: все модели кроме Pika испытывали проблемы с физикой жидкости. Дождь - это сложно. Очень сложно. Капли должны правильно преломлять свет, стекать по поверхностям с учетом гравитации, создавать рябь в лужах. Даже самые продвинутые модели справляются с этим на 6-7 баллов из 10.
Какой инструмент выбрать в 2026
Ответ зависит от задачи:
- Для коммерческих проектов - Google Veo 2.0. Стабильность важнее креативности, а Veo дает предсказуемый результат.
- Для арт-проектов и экспериментов - Runway Gen-3 Alpha. Лучшая кинематографичность, даже если персонажи "плывут".
- Для азиатского контента - Kling AI v3. Неоспоримое преимущество в локализированных сценах.
- Для ограниченного бюджета - Stable Video Diffusion 1.1. Бесплатно, но качество соответствующее.
Главный вывод: единого лидера нет. Каждая модель сильна в своем. Как и в сравнении локальных LLM, победитель определяется конкретной задачей.
Что будет дальше
К концу 2026 года мы увидим слияние подходов. Veo возьмет кинематографичность у Runway, Runway - стабильность у Veo, Kling - плавность движений у кого-то третьего.
Уже сейчас Google анонсирует Veo 3.0 с улучшенной физикой жидкостей. Runway работает над Gen-4, который обещает решить проблему "плывущих" лиц. Китайские компании вкладывают миллиарды в видео-ИИ, понимая его стратегическую важность.
Мой прогноз: через год тест с тем же промптом даст совершенно другие результаты. Модели, которые сегодня получают 6-7 баллов, будут стабильно выдавать 9-10. Потому что прогресс в этой области напоминает историю с Ling 17B - экспоненциальный рост качества при снижении стоимости.
Практический совет: не привязывайтесь к одному инструменту. Раз в квартал проводите такой же тест с вашим типовым промптом. Рынок меняется слишком быстро, чтобы полагаться на вчерашние результаты.
И последнее: если вы думаете, что AI-видео - это только для развлечения, посмотрите на как Ford использует ИИ или эксперимент Berkeley со сглаживанием пробок. Видеогенерация станет такой же базовой технологией, как сегодня компьютерное зрение.
Только не ждите от нее совершенства уже завтра. Дождь все еще течет вверх, а лица меняются как в кривом зеркале. Но прогресс очевиден. Год назад такое тестирование было бы невозможно в принципе.