Три релиза за неделю. И все хотят ваше внимание
25 января 2026 года. На рынке AI случилось то, что я называю "штормом релизов". OpenAI выкатила Sora 2 - вторую версию своей видео-модели. Anthropic ответила Claude Sonnet 4.5 с обещанием "человеческого уровня понимания". Meta, не отставая, представила Vibes - инструмент для создания коротких вертикальных видео из текста.
Проблема в том, что все три релиза вышли практически одновременно. У вас нет времени тестировать всё. Бюджет на API ограничен. Нужно выбрать самое важное.
Внимание: все данные актуальны на 25 января 2026 года. Если читаете это позже - проверьте обновления. В AI неделя - это вечность.
Sora 2: не просто видео, а видео с памятью
Первая Sora шокировала качеством, но имела фатальный недостаток - персонажи менялись между кадрами. Человек в начале видео и в конце выглядел по-разному. Sora 2 это исправляет.
1Как получить доступ к Sora 2
OpenAI действует осторожно. На 25 января 2026 доступ имеют:
- Избранные исследовательские группы (университеты с публикациями в CVPR, NeurIPS)
- Крупные студии (Pixar, Disney, Netflix в списке)
- Партнёры OpenAI Enterprise с годовым контрактом от $500k
Если вы не в этих категориях - ждите. OpenAI обещает публичный доступ через API "в ближайшие месяцы". (Перевод: от 3 до 6 месяцев).
2Что тестировать в первую очередь
Если доступ есть, не тратьте квоту на "котик бежит по траве". Тестируйте сложные сценарии:
- Диалоги с сохранением эмоций: "Два человека спорят. Один злится, другой спокоен. Эмоции должны сохраняться 10 секунд"
- Смена освещения: "Человек заходит из солнечной улицы в тёмную комнату. Глаза должны адаптироваться к темноте"
- Физика жидкостей: OpenAI хвасталась улучшенной физикой. Проверяйте: "Вода выливается из стакана, ударяется о стол, образует лужу"
Стоимость: официально не объявлена. По данным инсайдеров, 10-секундное видео в Sora 2 будет стоить $0.15-$0.25. В 3-4 раза дороже, чем генерация изображений в DALL-E 3.
Claude Sonnet 4.5: Anthropic бьёт по больному
Пока все обсуждают видео, Anthropic тихо выпускает Sonnet 4.5. И это не просто обновление - это ответ на главную жалобу пользователей: "Claude стал глупее".
В статье "Проблемы с Claude для креативного письма" мы разбирали, как модели деградируют после обновлений. Sonnet 4.5 - попытка исправить это.
| Что улучшили | Как это заметить |
|---|---|
| Контекстное понимание | Модель помнит детали из начала длинного диалога |
| Инструктивное следование | Точно выполняет сложные многошаговые инструкции |
| Креативная согласованность | Персонажи в stories не меняют характер случайно |
1Тест на деградацию: проверяем сразу
Не верьте маркетингу. Проверяйте сами. Мой тестовый промпт для Sonnet 4.5:
"Напиши начало детективной истории (200 слов). Главный герой - частный детектив с фобией: он боится зеркал. В первом абзаце упомяни эту фобию, но не объясняй причину. Во втором абзаце введи клиента - женщину в зелёном плаще. Она должна что-то скрывать. В третьем абзаце детектив замечает несоответствие в её story, но молчит. Сохраняй мрачную атмосферу на протяжении всего текста."
Старый Claude часто "забывал" про фобию к третьему абзацу. Sonnet 4.5 должен держать деталь через весь текст.
2А что с ценами? Дороже, конечно
Anthropic использует момент. Sonnet 4.5 дороже предыдущей версии:
- Входные токены: $0.011 за 1K (было $0.008)
- Выходные токены: $0.033 за 1K (было $0.024)
Увеличение на 30-40%. Если бюджет ограничен - посмотрите на локальные альтернативы из нашей статьи про удешевление Claude.
Meta Vibes: TikTok для ленивых
Пока OpenAI и Anthropic соревнуются в сложности, Meta идёт другим путём. Vibes - это не Sora. Это инструмент для создания коротких (до 15 секунд) вертикальных видео для социальных сетей.
И знаете что? Это гениально. 90% видео в соцсетях - это именно такие короткие вертикальные ролики.
1Доступ есть у всех. Прямо сейчас
В отличие от Sora 2, Vibes доступен через:
- Meta AI Studio (бесплатно, с водяными знаками)
- API для бизнеса (от $0.02 за видео)
- Интеграция в Instagram/Facebook Creator Studio
Бесплатная версия имеет ограничения: водяной знак Meta, максимум 3 видео в день, разрешение 720p. Но для тестирования хватит.
2Что работает, а что нет
Я протестировал Vibes в первый день. Результаты:
- Работает отлично: Еда, косметика, простые анимации, текстовые видео
- Работает средне: Люди в движении (иногда артефакты), животные
- Не работает: Текст в кадре (модель генерирует каракули), сложная физика
Vibes не заменит профессиональный видеомонтаж. Но для контент-менеджера, которому нужно 10 постов в день - это спасение.
Так что тестировать в первую очередь?
Вот мой приоритетный список на 25 января 2026:
- Vibes - если делаете контент для соцсетей. Доступ есть, цена низкая, результат immediate.
- Claude Sonnet 4.5 - если пишете длинные тексты или работаете с кодом. Тестируйте на своих реальных задачах, а не на абстрактных бенчмарках.
- Sora 2 - если есть доступ. Если нет - подпишитесь в лист ожидания и пока тестируйте альтернативы вроде FLUX.2 из нашего обзора.
Важное замечание: не тестируйте модели в вакууме. Sora 2 сравнивайте с предыдущей Sora. Claude Sonnet 4.5 - с Sonnet 4.0. Иначе не поймёте, стоит ли апгрейд денег.
Скрытые ограничения, о которых не пишут в блогах
У каждой новой модели есть тёмная сторона. Вот что я обнаружил:
| Модель | Официальные ограничения | Реальные ограничения (из тестов) |
|---|---|---|
| Sora 2 | Не генерирует насилие, ненависть | Также блокирует любые сцены с оружием (даже исторические), медицинские процедуры, политические протесты |
| Claude 4.5 | 200K контекст | После 150K качество падает. Реально работающий контекст - 120-130K |
| Meta Vibes | 15 секунд максимум | После 10 секунд часто появляются артефакты. Оптимально - 5-8 секунд |
Эти ограничения не делают модели плохими. Но знать их нужно, чтобы не тратить время на неправильные тесты.
А что, если бюджет нулевой?
Понимаю. Не у всех есть $500 на тестирование API. Вот бесплатные альтернативы на январь 2026:
- Вместо Sora 2: LTX-2 из нашего обзора мультимодальных моделей работает локально. Качество ниже, но бесплатно.
- Вместо Claude 4.5: DeepSeek Coder или Qwen2.5 для программирования. Для текстов - попробуйте MiniMax M2 на OpenRouter (дешевле Claude).
- Вместо Vibes: Бесплатная версия Vibes (с водяными знаками) или Stable Video Diffusion (хуже, но бесплатно).
Не гонитесь за новинками, если они не решают ваши конкретные задачи. Иногда модель полугодовой давности, но хорошо настроенная, даст лучший результат.
Мой прогноз: что будет через месяц
На основе паттернов предыдущих релизов:
- Sora 2: Появятся первые утечки - видео, сгенерированные моделью. Сообщество reverse-engineering найдёт способы обхода ограничений. OpenAI ужесточит доступ.
- Claude 4.5: Выходят независимые бенчмарки. Оказывается, модель не на 50% лучше, как обещали, а на 20-30%. Anthropic выпускает "исправляющее" обновление 4.5.1.
- Meta Vibes: Появляются первые viral видео, сгенерированные полностью AI. TikTok меняет правила, чтобы标记 such content. Начинается дискуссия об "AI-спаме".
Самое важное: через месяц появятся клоны. Уже сейчас команды в Китае и Европе работают над open-source аналогами Vibes. Sora 2 сложнее скопировать, но попытки будут.
Тестируйте с умом. Выбирайте то, что решает ваши задачи сегодня. И помните: завтра выйдет что-то новое. В AI это единственная константа.