Новинки Hugging Face 25.01.2026: GLM-4.7, LFM 2.5, Qwen3 TTS для локального AI | AiManual
AiManual Logo Ai / Manual.
25 Янв 2026 Новости

Hugging Face на этой неделе: GLM-4.7, LiquidAI LFM 2.5 и Qwen3 TTS — что стоит запустить локально

Свежий дайджест моделей с Hugging Face: GLM-4.7, LiquidAI LFM 2.5, Qwen3 TTS, AgentCPM и Sweep AI. Сравнение, рекомендации и что запустить на домашнем ПК.

Китайский тяжеловес против американского мыслителя

На этой неделе Hugging Face превратился в поле битвы двух философий. С одной стороны — GLM-4.7 от Zhipu AI, монстр на 1.76 триллиона параметров, который пытается заткнуть за пояс GPT-4.5. С другой — LiquidAI LFM 2.5, скромная 1.2-миллиардная модель, которая доказывает, что размер — не главное.

GLM-4.7 — это как швейцарский нож с 300 лезвиями. Мультимодальность, 128K контекст, поддержка 26 языков. Но есть нюанс: для локального запуска нужна видеокарта с 80 ГБ памяти. Или кластер из таких карт. В общем, не для домашнего использования.

GLM-4.7 доступен только через API или для корпоративных лицензий. Если ищете что-то для локального запуска — смотрите на GLM-4-9B-Chat, его реально запустить на RTX 4090.

LiquidAI LFM 2.5: маленький, но умный

А вот LFM 2.5 — совсем другая история. Всего 1.2 миллиарда параметров, но архитектура «жидких сетей» позволяет ей рассуждать лучше моделей в 10 раз крупнее. Особенно хороша версия LFM 2.5-1.2B-Thinking — она буквально заставляет модель думать вслух.

Запускается на чем угодно: от смартфона до старого ноутбука. Если хотите поэкспериментировать — в нашем гайде «Liquid AI LFM2.5-1.2B-Thinking: как запустить лучшую модель для рассуждений на смартфоне» есть все инструкции.

💡
LFM 2.5 использует механизм «цепочки мыслей» по умолчанию. Не нужно писать сложные промпты — просто задайте вопрос, и модель сама разложит его на шаги.

Qwen3 TTS: когда синтез речи перестал быть болью

Релиз Qwen3 TTS — это тихая революция. Раньше для качественного синтеза речи нужно было либо платить за API, либо неделями тренировать свою модель. Теперь скачиваете файлы с Hugging Face, запускаете через vLLM-Omni — и через 5 секунд получаете человеческий голос.

Особенность Qwen3 TTS в том, что он работает в режиме «few-shot». Даете 3-5 секунд эталонной записи — модель копирует интонации и акцент. Хотите, чтобы ваш AI-ассистент говорил как Морган Фриман? Теперь это не шутка.

Подробный разбор технологии и инструкции по запуску — в статье «Qwen3 TTS в vLLM-Omni: Путь к открытому синтезу речи за секунды, а не дни».

AgentCPM: китайский ответ AutoGPT

Пока все обсуждают OpenAI o1, на Hugging Face тихо выложили AgentCPM — фреймворк для создания автономных агентов. Особенность в том, что он из коробки умеет работать с китайскими сервисами (Baidu, Alipay, WeChat), но архитектура позволяет подключить любые API.

Хотите агента, который сам заказывает еду, бронирует столики и пишет отчеты? AgentCPM — самый простой способ начать. Документация на английском, код чистый, сообщество активное.

AgentCPM требует Python 3.11+ и минимум 16 ГБ ОЗУ. На Windows могут быть проблемы с некоторыми зависимостями — лучше использовать WSL2 или Linux.

Sweep AI: когда надоело писать boilerplate-код

Sweep AI — это не модель, а инструмент, который меняет правила игры. Подключаете его к репозиторию на GitHub, описываете задачу на естественном языке («добавь валидацию email в форму регистрации») — и Sweep сам пишет код, создает пул-реквест и даже отвечает на комментарии.

Особенно полезно для рутинных задач: рефакторинг, написание тестов, документация. Использует под капотом Claude 3.5 Sonnet, но есть возможность подключить локальную модель через AITunnel — единый API-шлюз к разным нейросетям.

Что запустить на выходных: практический гид

Если время ограничено, вот мой топ-3 для экспериментов:

  1. LFM 2.5-1.2B-Thinking — для понимания, как работают «рассуждающие» модели. Запускается даже на CPU.
  2. Qwen3 TTS + VibeVoice-ASR — соберите голосового ассистента. Гайд есть в статье «Pocket-TTS и VibeVoice-ASR: ваш локальный голосовой ассистент на минималках».
  3. AgentCPM — создайте простого агента для автоматизации рутины. Хватит пары часов.

Для тех, кто хочет больше — в подборке «Топ-7 продвинутых приложений для локальных LLM» есть альтернативы популярным лаунчерам.

Тренд недели: специализация вместо гигантизма

Если присмотреться — все новинки этой недели следуют одному тренду. Никто не гонится за триллионами параметров. Вместо этого:

  • LFM 2.5 специализируется на рассуждениях
  • Qwen3 TTS — только на синтезе речи
  • AgentCPM — на автономных агентах
  • Sweep AI — на генерации кода

Это логично. Запустить локально модель на 100 миллиардов параметров могут единицы. А вот специализированные инструменты, которые решают конкретные задачи — доступны всем.

Кстати, если хотите собрать все эти компоненты в одну систему — посмотрите статью «Построение AI-монстра: локальный ассистент со всем функционалом в одной коробке». Там как раз про интеграцию разных моделей.

💡
Следующая волна — мультимодальные агенты. Представьте: модель видит скриншот интерфейса, понимает, что нужно сделать, и выполняет действие через API. Первые прототипы уже есть в репозитории Microsoft.

Мой прогноз на февраль 2026: появятся модели, которые умеют не только генерировать код, но и дебажить его. Сейчас Sweep AI и подобные инструменты часто ошибаются в сложных случаях. Нужен «ревьюер», который будет проверять их работу.

А пока — качайте LFM 2.5, играйтесь с Qwen3 TTS. И не забывайте, что лучшая модель — та, которая решает вашу задачу, а не та, у которой больше параметров.