TextGen: десктопный клиент для LLM — альтернатива LM Studio с открытым кодом | AiManual
AiManual Logo Ai / Manual.
13 Май 2026 Инструмент

TextGen: свежая кровь на рынке локальных LLM — почему этот клиент может подвинуть LM Studio

Обзор TextGen — нового нативного десктопного клиента для запуска LLM локально. Сравнение с LM Studio, возможности, кому подойдёт. Полностью локально, без аккаун

Рынок локальных LLM-клиентов давно поделён. LM Studio — для тех, кто хочет «включил и забыл». llama.cpp — для терминальных фанатиков. А text-generation-webui — этакая «сборная солянка» с кучей расширений, но с веб-интерфейсом, который в 2026 году ощущается как привет из прошлого. И вот на сцене появляется TextGen — нативный десктопный клиент, который обещает забрать лучшее от каждого мира: простоту LM Studio, мощь text-generation-webui и современный UI без браузерных вкладок. Посмотрим, не пустой ли это звук.

Проект активно развивается на GitHub, последний коммит — апрель 2026. Репозиторий набирает звезды быстрее, чем LM Studio теряет пользователей после введения обязательных аккаунтов (да-да, мы помним ту историю).

Чем TextGen отличается от LM Studio? (спойлер: почти всем)

Если LM Studio — это iPhone среди локальных LLM: красивый, простой, но с закрытыми шторками, то TextGen — это Pixel с открытым исходником, который можно докрутить до чего угодно. При этом TextGen не требует терминала и не выглядит как админка хостинга. Он написан на Flutter (спасибо за нативную производительность на всех трёх платформах) и использует text-generation-webui в качестве бэкенда, но сшивает всё в одно десктопное приложение.

Характеристика LM Studio TextGen
Тип приложения Нативное (Electron) Нативное (Flutter)
Обязательная регистрация Да (с 2025) Нет, всё локально
Поддержка форматов GGUF, GPTQ (ограниченно) GGUF, GPTQ, AWQ, EXL2, HQQ
Встроенный RAG Только через API Да, с drag&drop документов
API сервер OpenAI-совместимый OpenAI-совместимый + прямой доступ к функциям webui
Режим агентов Нет Да (инструменты, функции, MCP)
Кастомизация UI Стандартные темы CSS-оверлеи, плагины, свои вкладки
Цена Бесплатно (с аккаунтом) Бесплатно (open source)

1 Первое, что бросается в глаза: никаких «Войдите в аккаунт»

Помните скандал, когда LM Studio добавила обязательный логин? Многие тогда рванули искать альтернативы. Мы подробно разбирали эту ситуацию — и TextGen как раз родился на этой волне. Разработчик (никнейм lanewin) прямо пишет в README: «Никаких аккаунтов, никакой телеметрии. Твой компьютер — твои данные». Приятно, чёрт возьми.

2 Под капотом — text-generation-webui, но без браузера

TextGen не переизобретает велосипед. Он использует проверенный движок text-generation-webui (того самого, что стоит за oobabooga), но вместо того чтобы открывать его в браузере, встраивает интерфейс прямо в окно Flutter. Результат: вся мощь расширений (лоре, грамматики, кастомные пресеты) + нативная работа с файловой системой, уведомления в трее и горячие клавиши.

Вот как выглядит типичный сценарий: вы скачали свежую Llama 3.3 70B в формате GGUF. Открываете TextGen, выбираете модель из локального кэша (или подгружаете с HuggingFace прямо через интерфейс). Настраиваете контекст на 32К, меняете температуру — всё без единой CLI-команды. Клик — и модель стартует. Чат летает: 60+ токенов в секунду на Mac Studio с M4 Ultra (апрельские бенчмарки, не соврать).

Чего не хватает пока? TextGen ещё не умеет автоматически дообучать модели (в отличие от AFM MLX), но это и не его задача. Зато в планах — поддержка расширений для RAG на локальных документах (уже в бета-версии 0.9.2).

Режим агентов: когда LLM перестаёт быть просто болталкой

Самая вкусная фича TextGen, которая отсутствует даже в LM Studio — встроенный агентный фреймворк. Представьте: вы пишете промпт, модель сама решает, вызвать ли функцию поиска в интернете, прочитать ли файл из папки или выполнить Python-скрипт. TextGen предоставляет готовые инструменты (веб-поиск, калькулятор, работа с PDF) и позволяет добавлять свои через простой JSON-конфиг.

Практический пример: юрист хочет проверить договор на соответствие 44-ФЗ. Он загружает PDF в окно RAG, включает инструмент «Поиск в локальной базе нормативов» — и модель автоматически находит нужные статьи, подтягивает их в контекст и выдает заключение. Без возни с API и без отправки данных в облако. Именно так работают инструменты для приватной работы с документами.

Для кого этот клиент — must have?

  • Те, кто устал от аккаунтов в LM Studio — TextGen не просит почту и не шлёт телеметрию.
  • Разработчики, которым нужен API‑сервер + десктоп — можно использовать TextGen как фронтенд к своему бэкенду, а встроенный сервер совместим с OpenAI SDK (меняете только base_url).
  • Фанаты text-generation-webui, которым надоел браузер — теперь всё в одном окне, с треем и горячими клавишами.
  • Исследователи, которые тестируют много моделей — TextGen сохраняет историю чатов для каждой модели отдельно и умеет запускать несколько инстансов параллельно.
  • Писатели и сценаристы — режим «Continuous generation» без ограничения длины, плюс встроенные пресеты для творческих задач.

С другой стороны, если вам нужно «просто початиться» и вы не готовы разбираться с настройками, LM Studio всё ещё проще. Но если вы хотите выжать из локальной модели максимум — TextGen даёт инструменты, которых нет даже в большинстве альтернатив, описанных в нашем топе продвинутых приложений.

💡
Главный недостаток TextGen на данный момент — возраст. Проекту меньше года, поэтому могут быть баги (особенно на Windows с разными CUDA-версиями). Но сообщество растёт, а разработчик реагирует на issue за 24 часа.

Хотите попробовать? Репозиторий на GitHub — lanewin/TextGen. Скачиваете бинарник под свою ОС, распаковываете, запускаете. Первый запуск предложит скачать одну из рекомендованных моделей (например, Llama 3.2 3B Q4_K_M — встаёт на 2 ГБ ОЗУ). Дальше — чат, RAG, агенты. И никаких аккаунтов.

Лично я сменил LM Studio на TextGen ещё в марте и ни разу не пожалел. Да, интерфейс местами сыроват, но он уже удобнее, чем то, что предлагают конкуренты. А когда появятся плагины для внешних инструментов (обещают к лету), это станет стандартом де-факто для локальных LLM. Поживём — увидим.

Подписаться на канал