Китайский тяжеловес против американского мыслителя
На этой неделе Hugging Face превратился в поле битвы двух философий. С одной стороны — GLM-4.7 от Zhipu AI, монстр на 1.76 триллиона параметров, который пытается заткнуть за пояс GPT-4.5. С другой — LiquidAI LFM 2.5, скромная 1.2-миллиардная модель, которая доказывает, что размер — не главное.
GLM-4.7 — это как швейцарский нож с 300 лезвиями. Мультимодальность, 128K контекст, поддержка 26 языков. Но есть нюанс: для локального запуска нужна видеокарта с 80 ГБ памяти. Или кластер из таких карт. В общем, не для домашнего использования.
GLM-4.7 доступен только через API или для корпоративных лицензий. Если ищете что-то для локального запуска — смотрите на GLM-4-9B-Chat, его реально запустить на RTX 4090.
LiquidAI LFM 2.5: маленький, но умный
А вот LFM 2.5 — совсем другая история. Всего 1.2 миллиарда параметров, но архитектура «жидких сетей» позволяет ей рассуждать лучше моделей в 10 раз крупнее. Особенно хороша версия LFM 2.5-1.2B-Thinking — она буквально заставляет модель думать вслух.
Запускается на чем угодно: от смартфона до старого ноутбука. Если хотите поэкспериментировать — в нашем гайде «Liquid AI LFM2.5-1.2B-Thinking: как запустить лучшую модель для рассуждений на смартфоне» есть все инструкции.
Qwen3 TTS: когда синтез речи перестал быть болью
Релиз Qwen3 TTS — это тихая революция. Раньше для качественного синтеза речи нужно было либо платить за API, либо неделями тренировать свою модель. Теперь скачиваете файлы с Hugging Face, запускаете через vLLM-Omni — и через 5 секунд получаете человеческий голос.
Особенность Qwen3 TTS в том, что он работает в режиме «few-shot». Даете 3-5 секунд эталонной записи — модель копирует интонации и акцент. Хотите, чтобы ваш AI-ассистент говорил как Морган Фриман? Теперь это не шутка.
Подробный разбор технологии и инструкции по запуску — в статье «Qwen3 TTS в vLLM-Omni: Путь к открытому синтезу речи за секунды, а не дни».
AgentCPM: китайский ответ AutoGPT
Пока все обсуждают OpenAI o1, на Hugging Face тихо выложили AgentCPM — фреймворк для создания автономных агентов. Особенность в том, что он из коробки умеет работать с китайскими сервисами (Baidu, Alipay, WeChat), но архитектура позволяет подключить любые API.
Хотите агента, который сам заказывает еду, бронирует столики и пишет отчеты? AgentCPM — самый простой способ начать. Документация на английском, код чистый, сообщество активное.
AgentCPM требует Python 3.11+ и минимум 16 ГБ ОЗУ. На Windows могут быть проблемы с некоторыми зависимостями — лучше использовать WSL2 или Linux.
Sweep AI: когда надоело писать boilerplate-код
Sweep AI — это не модель, а инструмент, который меняет правила игры. Подключаете его к репозиторию на GitHub, описываете задачу на естественном языке («добавь валидацию email в форму регистрации») — и Sweep сам пишет код, создает пул-реквест и даже отвечает на комментарии.
Особенно полезно для рутинных задач: рефакторинг, написание тестов, документация. Использует под капотом Claude 3.5 Sonnet, но есть возможность подключить локальную модель через AITunnel — единый API-шлюз к разным нейросетям.
Что запустить на выходных: практический гид
Если время ограничено, вот мой топ-3 для экспериментов:
- LFM 2.5-1.2B-Thinking — для понимания, как работают «рассуждающие» модели. Запускается даже на CPU.
- Qwen3 TTS + VibeVoice-ASR — соберите голосового ассистента. Гайд есть в статье «Pocket-TTS и VibeVoice-ASR: ваш локальный голосовой ассистент на минималках».
- AgentCPM — создайте простого агента для автоматизации рутины. Хватит пары часов.
Для тех, кто хочет больше — в подборке «Топ-7 продвинутых приложений для локальных LLM» есть альтернативы популярным лаунчерам.
Тренд недели: специализация вместо гигантизма
Если присмотреться — все новинки этой недели следуют одному тренду. Никто не гонится за триллионами параметров. Вместо этого:
- LFM 2.5 специализируется на рассуждениях
- Qwen3 TTS — только на синтезе речи
- AgentCPM — на автономных агентах
- Sweep AI — на генерации кода
Это логично. Запустить локально модель на 100 миллиардов параметров могут единицы. А вот специализированные инструменты, которые решают конкретные задачи — доступны всем.
Кстати, если хотите собрать все эти компоненты в одну систему — посмотрите статью «Построение AI-монстра: локальный ассистент со всем функционалом в одной коробке». Там как раз про интеграцию разных моделей.
Мой прогноз на февраль 2026: появятся модели, которые умеют не только генерировать код, но и дебажить его. Сейчас Sweep AI и подобные инструменты часто ошибаются в сложных случаях. Нужен «ревьюер», который будет проверять их работу.
А пока — качайте LFM 2.5, играйтесь с Qwen3 TTS. И не забывайте, что лучшая модель — та, которая решает вашу задачу, а не та, у которой больше параметров.