Февраль 2026-го начался так, будто кто-то нажал кнопку "турбо" на всей индустрии ИИ. Пока одни обсуждали рекламу ИИ-стартапов на Супербоуле (да, это случилось), другие пытались успеть за релизами, которые сыпались как из рога изобилия. За одну неделю мы получили больше прорывов, чем за весь прошлый квартал.
И самое смешное? Никто не успевает тестировать. Модели выходят быстрее, чем пишутся обзоры.
Anthropic Opus 4.6: Когда 1 миллион токенов - это не предел, а начало
Anthropic тихо, без пафоса, выкатила Opus 4.6. Тихий переворот. Основная фишка? Контекстное окно в 1 миллион токенов стало стандартом. Но не это главное.
Главное - это то, как модель с этим окном работает. Раньше 1M токенов было как огромная библиотека, где найти нужную книгу - задача на день. Теперь это как собственный ассистент, который мгновенно находит цитату из любого тома.
На практике это значит: загружаете всю документацию вашего проекта (да, все 500 страниц), технические требования, историю переписки в Slack - и модель работает с этим как с единым контекстом. Без потери связей, без "забывания" начала.
Но здесь есть нюанс, о котором молчат маркетологи. Большой контекст - это не только возможности, но и новые проблемы. Цена ошибки выросла экспоненциально. Если раньше модель могла "забыть" что-то из начала диалога, теперь она помнит всё. И если вы где-то ошиблись в промпте - эта ошибка будет влиять на все ответы.
Проверяйте промпты вдвойне. Трижды.
GPT-5.3-Codex: OpenAI наносит ответный удар
Всего через два месяца после нашего разбора противостояния GPT-5.3 Codex и Anthropic, OpenAI выпускает обновление. Не просто патч, а полноценный апдейт.
Что изменилось? Скорость выполнения кодовых задач выросла на те самые 25%, о которых говорили в декабре. Но цифры - это скучно. Интереснее другое.
Модель научилась работать с "агентными командами". Это не маркетинговый термин, а реальная архитектурная фича. GPT-5.3-Codex теперь может создавать и координировать несколько "под-агентов" для решения комплексных задач.
| Задача | Раньше (GPT-5.2) | Сейчас (GPT-5.3-Codex) |
|---|---|---|
| Разработка full-stack приложения | Последовательные промпты, ручная интеграция | Автоматическое создание команды агентов (frontend, backend, тестирование) |
| Рефакторинг legacy-кода | Пофайлово, с потерей контекста | Анализ всей кодовой базы, скоординированное обновление |
| Поиск уязвимостей | Статический анализ файлов | Моделирование атак, тестирование на проникновение |
Звучит круто? Да. Но есть подвох. Эта функциональность пока доступна только через специализированные API-шлюзы вроде AITunnel, которые предоставляют легальный доступ к самым свежим моделям. Прямой доступ через OpenAI API даст вам только базовую версию.
И да, модель всё ещё страдает от той же проблемы, о которой мы писали в декабре: излишняя самоуверенность. Она реже спрашивает уточнения, чаще делает предположения. Иногда эти предположения блестящи. Иногда - катастрофичны.
GLM-5: Китайский ответ, который перестал догонять и начал обгонять
Пока западные компании соревновались в маркетинге, китайские разработчики сделали то, чего от них не ждали. GLM-5 - это не просто очередная opensource-модель. Это система, которая бьет по всем фронтам.
Контекст? 1.2 миллиона токенов. Мультимодальность? Нативная, без костылей. Скорость? В 3 раза быстрее GLM-4.7, который, напомним, уже считался лучшей opensource-моделью.
Но главное не в технических характеристиках. Главное - в доступности. GLM-5 работает на consumer hardware. Не нужны серверы за $100к в месяц. Достаточно RTX 4090 с 24GB памяти. Или даже двух.
Внимание: официальная документация GLM-5 пока только на китайском. Английская версия обещана к марту. Но сообщество уже переводит ключевые части.
Что это значит для рынка? Ценовой прессинг. Когда opensource-модель догоняет по качеству коммерческие аналоги, но стоит в десятки раз дешевле - это меняет правила игры. Особенно для стартапов, у которых нет миллионов на API-вызовы.
Seedance 2.0: Когда генеративная музыка перестала звучать как "искусственный интеллект"
Помните те ужасные AI-треки 2024-го? Механические, бездушные, с странными переходами? Seedance 2.0 похоронил эту эпоху.
Новая модель генерирует музыку, которую не отличить от человеческой. Не в плане "технического совершенства" - в плане эмоциональной глубины. Алгоритм научился понимать не только структуру, но и настроение, развитие, кульминацию.
Но здесь скрыта самая интересная деталь. Seedance 2.0 использует гибридную архитектуру: нейросеть + symbolic AI. Нейросеть генерирует основу, symbolic AI проверяет музыкальную теорию, гармонию, структуру. Потом обратная связь, итерации.
Это тот самый подход, о котором теоретизировали в 2024-м. Теперь он работает. И работает настолько хорошо, что лейблы звукозаписи начали судиться. Они требуют признать AI-музыку производной работой, требующей лицензирования.
Юридическая битва только начинается. А музыка уже звучит.
Финансирование, скандалы и Супербоул
Пока модели становились умнее, рынок становился безумнее. Февраль 2026-го запомнится тремя вещами:
- Реклама ИИ на Супербоуле: Впервые в истории. 30 секунд, $7 миллионов. Стартап показывал, как их ИИ за минуту создаёт полноценную маркетинговую кампанию. Эффект? Их сайт упал от трафика через 37 секунд.
- Утечка данных в крупном AI-стартапе: Не модель взломали. Взломали процесс обучения. Украли не данные, а "знания" - веса модели, архитектуру, гиперпараметры. Убытки оценивают в $200+ миллионов.
- Рекордные раунды финансирования: 5 ИИ-стартапов привлекли по $100+ миллионов. Интересно не это. Интересно, что все они работают в нише "AI safety" - безопасность ИИ. Страх перед собственным творением стал бизнес-моделью.
Индустрия взрослеет. Быстро. Слишком быстро для регуляторов. Слишком быстро для этиков. Но не для инвесторов - они заливают деньги как в дырявое ведро, надеясь, что хоть что-то останется.
Что дальше? Прогнозы, которые звучат как научная фантастика
На основе текущих трендов (и пары утечек из инсайдерских чатов):
OpenAI, судя по патентам, экспериментирует с "моделями-экспертами", которые специализируются не на задачах, а на стилях мышления. Один "эксперт" мыслит как математик, другой - как поэт, третий - как хакер. И они коллаборируют.
Китайские компании делают ставку на edge computing. Модели, которые работают на устройствах, без облака. Зачем? Контроль. Суверенитет. И возможность работать там, где нет интернета.
Самое важное наблюдение: разрыв между opensource и проприетарными моделями сокращается. Не по всем параметрам - по некоторым opensource уже лидирует. Цена, доступность, прозрачность.
Совет на март? Не гонитесь за каждой новой моделью. Выберите одну-две, которые решают ваши конкретные задачи. И углубитесь в них. Потому что поверхностное знание десятка моделей сегодня бесполезно. Нужно глубокое понимание одной.
И держитесь подальше от хайпа. Особенно от того, что рекламируют на Супербоуле за $7 миллионов за 30 секунд. Обычно это значит, что продукт не продаётся сам по себе.