Новейшие AI-модели февраля 2026: Opus 4.6, GPT-5.3-Codex, GLM-5, Seedance 2.0 | AiManual
AiManual Logo Ai / Manual.
17 Фев 2026 Новости

Февральский взрыв: Opus 4.6, GPT-5.3-Codex и китайский GLM-5 меняют правила игры

Обзор ключевых релизов AI февраля 2026: контекст в 1M токенов, агентные команды, финансирование стартапов и война за кодеров.

Февраль 2026-го начался так, будто кто-то нажал кнопку "турбо" на всей индустрии ИИ. Пока одни обсуждали рекламу ИИ-стартапов на Супербоуле (да, это случилось), другие пытались успеть за релизами, которые сыпались как из рога изобилия. За одну неделю мы получили больше прорывов, чем за весь прошлый квартал.

И самое смешное? Никто не успевает тестировать. Модели выходят быстрее, чем пишутся обзоры.

Anthropic Opus 4.6: Когда 1 миллион токенов - это не предел, а начало

Anthropic тихо, без пафоса, выкатила Opus 4.6. Тихий переворот. Основная фишка? Контекстное окно в 1 миллион токенов стало стандартом. Но не это главное.

Главное - это то, как модель с этим окном работает. Раньше 1M токенов было как огромная библиотека, где найти нужную книгу - задача на день. Теперь это как собственный ассистент, который мгновенно находит цитату из любого тома.

На практике это значит: загружаете всю документацию вашего проекта (да, все 500 страниц), технические требования, историю переписки в Slack - и модель работает с этим как с единым контекстом. Без потери связей, без "забывания" начала.

Но здесь есть нюанс, о котором молчат маркетологи. Большой контекст - это не только возможности, но и новые проблемы. Цена ошибки выросла экспоненциально. Если раньше модель могла "забыть" что-то из начала диалога, теперь она помнит всё. И если вы где-то ошиблись в промпте - эта ошибка будет влиять на все ответы.

Проверяйте промпты вдвойне. Трижды.

GPT-5.3-Codex: OpenAI наносит ответный удар

Всего через два месяца после нашего разбора противостояния GPT-5.3 Codex и Anthropic, OpenAI выпускает обновление. Не просто патч, а полноценный апдейт.

Что изменилось? Скорость выполнения кодовых задач выросла на те самые 25%, о которых говорили в декабре. Но цифры - это скучно. Интереснее другое.

Модель научилась работать с "агентными командами". Это не маркетинговый термин, а реальная архитектурная фича. GPT-5.3-Codex теперь может создавать и координировать несколько "под-агентов" для решения комплексных задач.

ЗадачаРаньше (GPT-5.2)Сейчас (GPT-5.3-Codex)
Разработка full-stack приложенияПоследовательные промпты, ручная интеграцияАвтоматическое создание команды агентов (frontend, backend, тестирование)
Рефакторинг legacy-кодаПофайлово, с потерей контекстаАнализ всей кодовой базы, скоординированное обновление
Поиск уязвимостейСтатический анализ файловМоделирование атак, тестирование на проникновение

Звучит круто? Да. Но есть подвох. Эта функциональность пока доступна только через специализированные API-шлюзы вроде AITunnel, которые предоставляют легальный доступ к самым свежим моделям. Прямой доступ через OpenAI API даст вам только базовую версию.

И да, модель всё ещё страдает от той же проблемы, о которой мы писали в декабре: излишняя самоуверенность. Она реже спрашивает уточнения, чаще делает предположения. Иногда эти предположения блестящи. Иногда - катастрофичны.

GLM-5: Китайский ответ, который перестал догонять и начал обгонять

Пока западные компании соревновались в маркетинге, китайские разработчики сделали то, чего от них не ждали. GLM-5 - это не просто очередная opensource-модель. Это система, которая бьет по всем фронтам.

Контекст? 1.2 миллиона токенов. Мультимодальность? Нативная, без костылей. Скорость? В 3 раза быстрее GLM-4.7, который, напомним, уже считался лучшей opensource-моделью.

Но главное не в технических характеристиках. Главное - в доступности. GLM-5 работает на consumer hardware. Не нужны серверы за $100к в месяц. Достаточно RTX 4090 с 24GB памяти. Или даже двух.

Внимание: официальная документация GLM-5 пока только на китайском. Английская версия обещана к марту. Но сообщество уже переводит ключевые части.

Что это значит для рынка? Ценовой прессинг. Когда opensource-модель догоняет по качеству коммерческие аналоги, но стоит в десятки раз дешевле - это меняет правила игры. Особенно для стартапов, у которых нет миллионов на API-вызовы.

Seedance 2.0: Когда генеративная музыка перестала звучать как "искусственный интеллект"

Помните те ужасные AI-треки 2024-го? Механические, бездушные, с странными переходами? Seedance 2.0 похоронил эту эпоху.

Новая модель генерирует музыку, которую не отличить от человеческой. Не в плане "технического совершенства" - в плане эмоциональной глубины. Алгоритм научился понимать не только структуру, но и настроение, развитие, кульминацию.

Но здесь скрыта самая интересная деталь. Seedance 2.0 использует гибридную архитектуру: нейросеть + symbolic AI. Нейросеть генерирует основу, symbolic AI проверяет музыкальную теорию, гармонию, структуру. Потом обратная связь, итерации.

Это тот самый подход, о котором теоретизировали в 2024-м. Теперь он работает. И работает настолько хорошо, что лейблы звукозаписи начали судиться. Они требуют признать AI-музыку производной работой, требующей лицензирования.

Юридическая битва только начинается. А музыка уже звучит.

Финансирование, скандалы и Супербоул

Пока модели становились умнее, рынок становился безумнее. Февраль 2026-го запомнится тремя вещами:

  • Реклама ИИ на Супербоуле: Впервые в истории. 30 секунд, $7 миллионов. Стартап показывал, как их ИИ за минуту создаёт полноценную маркетинговую кампанию. Эффект? Их сайт упал от трафика через 37 секунд.
  • Утечка данных в крупном AI-стартапе: Не модель взломали. Взломали процесс обучения. Украли не данные, а "знания" - веса модели, архитектуру, гиперпараметры. Убытки оценивают в $200+ миллионов.
  • Рекордные раунды финансирования: 5 ИИ-стартапов привлекли по $100+ миллионов. Интересно не это. Интересно, что все они работают в нише "AI safety" - безопасность ИИ. Страх перед собственным творением стал бизнес-моделью.

Индустрия взрослеет. Быстро. Слишком быстро для регуляторов. Слишком быстро для этиков. Но не для инвесторов - они заливают деньги как в дырявое ведро, надеясь, что хоть что-то останется.

Что дальше? Прогнозы, которые звучат как научная фантастика

На основе текущих трендов (и пары утечек из инсайдерских чатов):

💡
Google готовит Gemini 4.0 с полностью переработанной архитектурой. Утечки говорят о модели, которая не генерирует текст, а "симулирует мышление" - внутренние монологи, сомнения, проверки. Если это правда, это будет качественный скачок, а не эволюция.

OpenAI, судя по патентам, экспериментирует с "моделями-экспертами", которые специализируются не на задачах, а на стилях мышления. Один "эксперт" мыслит как математик, другой - как поэт, третий - как хакер. И они коллаборируют.

Китайские компании делают ставку на edge computing. Модели, которые работают на устройствах, без облака. Зачем? Контроль. Суверенитет. И возможность работать там, где нет интернета.

Самое важное наблюдение: разрыв между opensource и проприетарными моделями сокращается. Не по всем параметрам - по некоторым opensource уже лидирует. Цена, доступность, прозрачность.

Совет на март? Не гонитесь за каждой новой моделью. Выберите одну-две, которые решают ваши конкретные задачи. И углубитесь в них. Потому что поверхностное знание десятка моделей сегодня бесполезно. Нужно глубокое понимание одной.

И держитесь подальше от хайпа. Особенно от того, что рекламируют на Супербоуле за $7 миллионов за 30 секунд. Обычно это значит, что продукт не продаётся сам по себе.