Рынок локальных LLM-клиентов давно поделён. LM Studio — для тех, кто хочет «включил и забыл». llama.cpp — для терминальных фанатиков. А text-generation-webui — этакая «сборная солянка» с кучей расширений, но с веб-интерфейсом, который в 2026 году ощущается как привет из прошлого. И вот на сцене появляется TextGen — нативный десктопный клиент, который обещает забрать лучшее от каждого мира: простоту LM Studio, мощь text-generation-webui и современный UI без браузерных вкладок. Посмотрим, не пустой ли это звук.
Чем TextGen отличается от LM Studio? (спойлер: почти всем)
Если LM Studio — это iPhone среди локальных LLM: красивый, простой, но с закрытыми шторками, то TextGen — это Pixel с открытым исходником, который можно докрутить до чего угодно. При этом TextGen не требует терминала и не выглядит как админка хостинга. Он написан на Flutter (спасибо за нативную производительность на всех трёх платформах) и использует text-generation-webui в качестве бэкенда, но сшивает всё в одно десктопное приложение.
| Характеристика | LM Studio | TextGen |
|---|---|---|
| Тип приложения | Нативное (Electron) | Нативное (Flutter) |
| Обязательная регистрация | Да (с 2025) | Нет, всё локально |
| Поддержка форматов | GGUF, GPTQ (ограниченно) | GGUF, GPTQ, AWQ, EXL2, HQQ |
| Встроенный RAG | Только через API | Да, с drag&drop документов |
| API сервер | OpenAI-совместимый | OpenAI-совместимый + прямой доступ к функциям webui |
| Режим агентов | Нет | Да (инструменты, функции, MCP) |
| Кастомизация UI | Стандартные темы | CSS-оверлеи, плагины, свои вкладки |
| Цена | Бесплатно (с аккаунтом) | Бесплатно (open source) |
1 Первое, что бросается в глаза: никаких «Войдите в аккаунт»
Помните скандал, когда LM Studio добавила обязательный логин? Многие тогда рванули искать альтернативы. Мы подробно разбирали эту ситуацию — и TextGen как раз родился на этой волне. Разработчик (никнейм lanewin) прямо пишет в README: «Никаких аккаунтов, никакой телеметрии. Твой компьютер — твои данные». Приятно, чёрт возьми.
2 Под капотом — text-generation-webui, но без браузера
TextGen не переизобретает велосипед. Он использует проверенный движок text-generation-webui (того самого, что стоит за oobabooga), но вместо того чтобы открывать его в браузере, встраивает интерфейс прямо в окно Flutter. Результат: вся мощь расширений (лоре, грамматики, кастомные пресеты) + нативная работа с файловой системой, уведомления в трее и горячие клавиши.
Вот как выглядит типичный сценарий: вы скачали свежую Llama 3.3 70B в формате GGUF. Открываете TextGen, выбираете модель из локального кэша (или подгружаете с HuggingFace прямо через интерфейс). Настраиваете контекст на 32К, меняете температуру — всё без единой CLI-команды. Клик — и модель стартует. Чат летает: 60+ токенов в секунду на Mac Studio с M4 Ultra (апрельские бенчмарки, не соврать).
Чего не хватает пока? TextGen ещё не умеет автоматически дообучать модели (в отличие от AFM MLX), но это и не его задача. Зато в планах — поддержка расширений для RAG на локальных документах (уже в бета-версии 0.9.2).
Режим агентов: когда LLM перестаёт быть просто болталкой
Самая вкусная фича TextGen, которая отсутствует даже в LM Studio — встроенный агентный фреймворк. Представьте: вы пишете промпт, модель сама решает, вызвать ли функцию поиска в интернете, прочитать ли файл из папки или выполнить Python-скрипт. TextGen предоставляет готовые инструменты (веб-поиск, калькулятор, работа с PDF) и позволяет добавлять свои через простой JSON-конфиг.
Практический пример: юрист хочет проверить договор на соответствие 44-ФЗ. Он загружает PDF в окно RAG, включает инструмент «Поиск в локальной базе нормативов» — и модель автоматически находит нужные статьи, подтягивает их в контекст и выдает заключение. Без возни с API и без отправки данных в облако. Именно так работают инструменты для приватной работы с документами.
Для кого этот клиент — must have?
- Те, кто устал от аккаунтов в LM Studio — TextGen не просит почту и не шлёт телеметрию.
- Разработчики, которым нужен API‑сервер + десктоп — можно использовать TextGen как фронтенд к своему бэкенду, а встроенный сервер совместим с OpenAI SDK (меняете только base_url).
- Фанаты text-generation-webui, которым надоел браузер — теперь всё в одном окне, с треем и горячими клавишами.
- Исследователи, которые тестируют много моделей — TextGen сохраняет историю чатов для каждой модели отдельно и умеет запускать несколько инстансов параллельно.
- Писатели и сценаристы — режим «Continuous generation» без ограничения длины, плюс встроенные пресеты для творческих задач.
С другой стороны, если вам нужно «просто початиться» и вы не готовы разбираться с настройками, LM Studio всё ещё проще. Но если вы хотите выжать из локальной модели максимум — TextGen даёт инструменты, которых нет даже в большинстве альтернатив, описанных в нашем топе продвинутых приложений.
Хотите попробовать? Репозиторий на GitHub — lanewin/TextGen. Скачиваете бинарник под свою ОС, распаковываете, запускаете. Первый запуск предложит скачать одну из рекомендованных моделей (например, Llama 3.2 3B Q4_K_M — встаёт на 2 ГБ ОЗУ). Дальше — чат, RAG, агенты. И никаких аккаунтов.
Лично я сменил LM Studio на TextGen ещё в марте и ни разу не пожалел. Да, интерфейс местами сыроват, но он уже удобнее, чем то, что предлагают конкуренты. А когда появятся плагины для внешних инструментов (обещают к лету), это станет стандартом де-факто для локальных LLM. Поживём — увидим.