Китайские модели для кода: теперь они требуют меньше памяти
Если вы думали, что Qwen3-Coder-Next был прорывом, подождите до релиза его обновленной версии. Разработчики из Alibaba Cloud объявили о значительной оптимизации памяти - модель теперь требует на 35% меньше VRAM при том же уровне производительности. Для 30B версии это значит не 48 ГБ, а около 31 ГБ. Мечта для владельцев RTX 4090.
Но есть подвох. И не один. Во-первых, оптимизация работает только с их проприетарным рантаймом. Хотите использовать llama.cpp или vLLM? Готовьтесь к полным 48 ГБ. Во-вторых, скорость инференса упала на 15-20%. Платите меньшими требованиями к памяти более медленной генерацией.
Lucy 2.0: новая китайская SOTA, которая бьет всех
Пока все обсуждали Qwen, на GitHub тихо выложили Lucy 2.0 - 34B параметров, полностью открытые веса, и результаты на HumanEval, которые заставляют плакать даже GPT-5.2 Codex. 87.5% против 85.2% у последней версии CodeLlama.
Что интересно - Lucy использует совершенно другую архитектуру обучения. Вместо чистого next-token prediction, модель обучается на "рассуждениях о коде". Она не просто предсказывает следующий токен, а пытается понять, что программист думал в этот момент. Звучит как маркетинг, но результаты говорят сами за себя.
| Модель | HumanEval | MBPP | Требования VRAM |
|---|---|---|---|
| Lucy 2.0 (34B) | 87.5% | 78.3% | ~68 ГБ |
| Qwen3-Coder-Next (30B) | 85.1% | 76.8% | ~48 ГБ |
| CodeLlama-34B | 82.3% | 74.5% | ~64 ГБ |
Проблема в требованиях к памяти. 68 ГБ VRAM - это уже территория профессиональных GPU или нескольких карт. Для сравнения: обзор локальных кодеров на 48 ГБ показал, что даже 48 ГБ - это предел для большинства энтузиастов.
ACE-Step 1.5: бесплатный Suno, который почти не уступает
Пока Suno требует подписку за $15 в месяц, китайские разработчики выкатили ACE-Step 1.5 - полностью открытую модель для генерации музыки. И да, она работает локально. И да, качество на уровне Suno v3 (не последней версии, но все равно впечатляет).
Технические детали: модель на 1.2B параметров, поддерживает генерацию до 3 минут музыки, понимает промпты на английском и китайском. Требования - 8 ГБ VRAM для инференса в реальном времени. Это значит, что RTX 4070 справится.
Главный недостаток ACE-Step 1.5 - качество вокальных партий. Инструменталы звучат отлично, но голос иногда "плавает" по тональности. Для инструментальной музыки - идеально. Для песен - лучше использовать Suno или подождать следующей версии.
Codex на десктопе: OpenAI наконец-то выпустила приложение
После месяцев слухов OpenAI представила десктопное приложение Codex. Не просто обертка над веб-версией, а полноценный клиент с офлайн-кэшированием, интеграцией в системный трей и поддержкой локальных файлов.
Что умеет:
- Анализировать локальные файлы с кодом без отправки на серверы OpenAI
- Работать в офлайн-режиме с кэшированными ответами
- Интегрироваться с IDE через плагины (пока только VS Code и JetBrains)
- Поддерживать контекст до 128K токенов в десктопной версии
Цена? $20 в месяц поверх существующей подписки ChatGPT Plus. Дорого? Да. Но для профессиональных разработчиков, которые уже платят за Copilot Enterprise ($39/месяц), это конкурентоспособное предложение.
Что все это значит для нас?
Тренд очевиден: китайские модели догоняют и перегоняют западные. Причем не только в коде, но и в креативных задачах. Lucy 2.0 бьет CodeLlama, ACE-Step 1.5 конкурирует с Suno, а Qwen3 продолжает доминировать в open-source сегменте.
Но есть нюанс. Китайские модели часто оптимизированы под специфические задачи и могут "проседать" в других сценариях. История с IQuest-Coder-V1 показала, как легко можно манипулировать результатами бенчмарков.
Мой совет на февраль 2026: если у вас есть мощная видеокарта (от 24 ГБ VRAM), пробуйте Lucy 2.0. Для более скромных систем - обновленный Qwen3-Coder-Next с оптимизацией памяти. Для музыки - ACE-Step 1.5, но только для инструменталов. А Codex от OpenAI оставьте тем, кто готов платить $20 в месяц за последние 10-15% производительности.
И следите за AI-агентами недели - следующий прорыв будет именно там. Модели, которые не просто генерируют код, а планируют, исполняют и исправляют ошибки. Lucy и Qwen - это только начало.