Новинки AI на 08.02.2026: Qwen3-Coder-Next, Lucy 2.0, ACE-Step 1.5 | AiManual
AiManual Logo Ai / Manual.
08 Фев 2026 Новости

Нейро-дайджест: Китайские SOTA-модели атакуют, Codex на десктопе и бесплатный аналог Suno

Обзор последних AI-новинок: китайские модели для кода Qwen3-Coder-Next и Lucy 2.0, бесплатный аналог Suno ACE-Step 1.5 и десктопное приложение Codex от OpenAI.

Китайские модели для кода: теперь они требуют меньше памяти

Если вы думали, что Qwen3-Coder-Next был прорывом, подождите до релиза его обновленной версии. Разработчики из Alibaba Cloud объявили о значительной оптимизации памяти - модель теперь требует на 35% меньше VRAM при том же уровне производительности. Для 30B версии это значит не 48 ГБ, а около 31 ГБ. Мечта для владельцев RTX 4090.

Но есть подвох. И не один. Во-первых, оптимизация работает только с их проприетарным рантаймом. Хотите использовать llama.cpp или vLLM? Готовьтесь к полным 48 ГБ. Во-вторых, скорость инференса упала на 15-20%. Платите меньшими требованиями к памяти более медленной генерацией.

💡
Технический разбор архитектуры Qwen3-Coder показал интересный факт: модель использует специализированные субмодели для разных типов задач. Это объясняет, почему она так хорошо справляется с тестами, но иногда "тупит" на реальном коде.

Lucy 2.0: новая китайская SOTA, которая бьет всех

Пока все обсуждали Qwen, на GitHub тихо выложили Lucy 2.0 - 34B параметров, полностью открытые веса, и результаты на HumanEval, которые заставляют плакать даже GPT-5.2 Codex. 87.5% против 85.2% у последней версии CodeLlama.

Что интересно - Lucy использует совершенно другую архитектуру обучения. Вместо чистого next-token prediction, модель обучается на "рассуждениях о коде". Она не просто предсказывает следующий токен, а пытается понять, что программист думал в этот момент. Звучит как маркетинг, но результаты говорят сами за себя.

МодельHumanEvalMBPPТребования VRAM
Lucy 2.0 (34B)87.5%78.3%~68 ГБ
Qwen3-Coder-Next (30B)85.1%76.8%~48 ГБ
CodeLlama-34B82.3%74.5%~64 ГБ

Проблема в требованиях к памяти. 68 ГБ VRAM - это уже территория профессиональных GPU или нескольких карт. Для сравнения: обзор локальных кодеров на 48 ГБ показал, что даже 48 ГБ - это предел для большинства энтузиастов.

ACE-Step 1.5: бесплатный Suno, который почти не уступает

Пока Suno требует подписку за $15 в месяц, китайские разработчики выкатили ACE-Step 1.5 - полностью открытую модель для генерации музыки. И да, она работает локально. И да, качество на уровне Suno v3 (не последней версии, но все равно впечатляет).

Технические детали: модель на 1.2B параметров, поддерживает генерацию до 3 минут музыки, понимает промпты на английском и китайском. Требования - 8 ГБ VRAM для инференса в реальном времени. Это значит, что RTX 4070 справится.

Главный недостаток ACE-Step 1.5 - качество вокальных партий. Инструменталы звучат отлично, но голос иногда "плавает" по тональности. Для инструментальной музыки - идеально. Для песен - лучше использовать Suno или подождать следующей версии.

Codex на десктопе: OpenAI наконец-то выпустила приложение

После месяцев слухов OpenAI представила десктопное приложение Codex. Не просто обертка над веб-версией, а полноценный клиент с офлайн-кэшированием, интеграцией в системный трей и поддержкой локальных файлов.

Что умеет:

  • Анализировать локальные файлы с кодом без отправки на серверы OpenAI
  • Работать в офлайн-режиме с кэшированными ответами
  • Интегрироваться с IDE через плагины (пока только VS Code и JetBrains)
  • Поддерживать контекст до 128K токенов в десктопной версии

Цена? $20 в месяц поверх существующей подписки ChatGPT Plus. Дорого? Да. Но для профессиональных разработчиков, которые уже платят за Copilot Enterprise ($39/месяц), это конкурентоспособное предложение.

💡
Интересный факт из итогов сезона "ИИ в разработке" на Хабре: в реальных боевых условиях разница между GPT-5.2 Codex и локальными моделями вроде Qwen3 составляет всего 10-15% по эффективности. Но эта разница стоит $240 в год.

Что все это значит для нас?

Тренд очевиден: китайские модели догоняют и перегоняют западные. Причем не только в коде, но и в креативных задачах. Lucy 2.0 бьет CodeLlama, ACE-Step 1.5 конкурирует с Suno, а Qwen3 продолжает доминировать в open-source сегменте.

Но есть нюанс. Китайские модели часто оптимизированы под специфические задачи и могут "проседать" в других сценариях. История с IQuest-Coder-V1 показала, как легко можно манипулировать результатами бенчмарков.

Мой совет на февраль 2026: если у вас есть мощная видеокарта (от 24 ГБ VRAM), пробуйте Lucy 2.0. Для более скромных систем - обновленный Qwen3-Coder-Next с оптимизацией памяти. Для музыки - ACE-Step 1.5, но только для инструменталов. А Codex от OpenAI оставьте тем, кто готов платить $20 в месяц за последние 10-15% производительности.

И следите за AI-агентами недели - следующий прорыв будет именно там. Модели, которые не просто генерируют код, а планируют, исполняют и исправляют ошибки. Lucy и Qwen - это только начало.