Сравнение легковесных TTS моделей 2026: KokoroTTS vs Qwen vs Piper | AiManual
AiManual Logo Ai / Manual.
07 Фев 2026 Гайд

Легковесные TTS-модели 2026: KokoroTTS против Qwen и других. Кто реально работает на RTX 3060?

Тестируем легковесные TTS-модели для локального запуска на RTX 3060. Сравнение скорости, качества и требований KokoroTTS, Qwen, Piper и других на 07.02.2026.

Когда нужен не идеальный голос, а просто работающий

Ты хочешь добавить голос своему локальному ассистенту. Или сгенерировать озвучку для сотен обучающих видео. Или сделать читалку для электронных книг. ElevenLabs слишком дорогой, а облачные API не подходят по приватности.

Ты гуглишь "локальный TTS" и видишь десятки моделей. Qwen3-TTS 1.5B, KokoroTTS, Piper, LuxTTS, Coqui. Все обещают качество близкое к человеческому. Но у тебя RTX 3060 с 12 ГБ памяти (или даже 6 ГБ), а не лабораторный кластер.

Вот проблема: большинство обзоров тестируют модели на RTX 4090. Это как сравнивать скорость автомобилей на гоночном треке, когда тебе нужно ездить по городским пробкам. На бумаге Qwen3-TTS круче всех. На практике он может не влезть в память или работать со скоростью 1 символ в секунду.

Важно: все тесты в этой статье проведены на RTX 3060 12GB (и дополнительно на RTX 2060 6GB для проверки минимальных требований). Дата тестирования - 07.02.2026. Версии моделей - самые свежие на этот момент.

Что значит "легковесный" в 2026 году?

Три года назад легковесной считалась модель на 50 миллионов параметров. Сегодня граница сместилась. Модель на 300M параметров - это уже легковес. На 1B - средний класс. Все что больше 2B - тяжелая артиллерия.

Но параметры - не единственный показатель. Архитектура важнее. VITS-модели (как Qwen3-TTS) обычно тяжелее, но качественнее. Flow Matching (LuxTTS) - быстрее, но требует точной настройки. Фоноемные модели (Piper) - самые легкие, но с ограниченной выразительностью.

KokoroTTS: японская точность с неожиданными требованиями

KokoroTTS вышел в 2024 и до сих пор в строю. Модель на базе VITS, размером около 400M параметров. Должен быть легковесным, правда?

На практике KokoroTTS v1.1.0 (последняя версия на 07.02.2026) ведет себя странно. Базовая модель действительно занимает ~1.5 ГБ памяти. Но когда начинаешь синтезировать длинные тексты, потребление памяти растет линейно.

💡
KokoroTTS использует кэширование промежуточных вычислений. Это ускоряет повторные синтезы, но убивает память при обработке длинных текстов. Для аудиокниг это проблема.

Производительность KokoroTTS на RTX 3060

Метрика Значение Комментарий
Память (начало) 1.8 ГБ Только загрузка модели
Память (1000 символов) 3.2 ГБ Плюс 1.4 ГБ кэша
Скорость (первые 100 символов) 0.8 сек Холодный старт
Скорость (последующие) 0.3 сек/100 символов С теплым кэшем
Качество русского 7/10 Слышен легкий акцент

Код для запуска KokoroTTS (актуальный на февраль 2026):

# Установка последней версии
pip install kokoro-tts==1.1.0

# Базовый синтез
from kokoro import Kokoro

# Загрузка модели - автоматически скачает если нет
model = Kokoro.from_pretrained("kokoro-tts/ru_v1")

# Синтез с настройками для экономии памяти
# Важно: reduce_memory=True очищает кэш после каждого синтеза
audio = model.synthesize(
    "Привет, это тест синтеза речи",
    voice="ru_female_1",
    reduce_memory=True  # Критично для длинных текстов!
)

# Сохранение
import soundfile as sf
sf.write("output.wav", audio, 24000)

Без reduce_memory=True KokoroTTS съедает всю доступную память при обработке книги. Проверено на "Война и мир" - через 50 страниц падало с OutOfMemory даже на 12 ГБ.

Qwen3-TTS 0.5B: обрезанная версия для слабого железа

Оригинальный Qwen3-TTS 1.5B не влезает в RTX 3060 для длинных текстов. Но в конце 2025 года Alibaba выпустила Qwen3-TTS-0.5B - специально облегченную версию.

Архитектурно это та же VITS, но с уменьшенными embedding-размерами и более агрессивной квантизацией. Качество просело, но не катастрофически.

Что потеряли в 0.5B версии:

  • Эмоциональный диапазон: меньше вариаций тона
  • Стабильность на очень длинных предложениях: иногда "спотыкается"
  • Поддержка некоторых языков: остались только основные (русский, английский, китайский)

Что сохранили:

  • Естественность пауз: все еще лучше чем у конкурентов
  • Скорость: почти не изменилась
  • Потребление памяти: уменьшилось в 2.5 раза

Если тебе интересны детали архитектуры Qwen3-TTS, у нас есть полный гайд по запуску всех версий.

Модель Память Скорость Качество Влезает в 6 ГБ?
Qwen3-TTS 1.5B 4.8 ГБ 1.2 сек/100 симв 9/10 Нет
Qwen3-TTS 0.5B 1.9 ГБ 1.0 сек/100 симв 7.5/10 Да, с запасом
KokoroTTS 1.8-3.5 ГБ 0.3-0.8 сек 7/10 Да, но осторожно

Piper: когда нужно просто и быстро

Piper - это антипод Qwen. Минималистичный, без излишеств, работает даже на Raspberry Pi. В 2026 году Piper обновился до версии 2.0 с поддержкой эмоций (базовой).

На RTX 3060 Piper летает. 100 символов за 0.05 секунды. Память - 500 МБ. Но качество... Оно напоминает голос из навигатора 2010-х годов.

💡
Piper идеален для системных уведомлений, чтения логов, или любого случая, где важна скорость, а не натуральность. Для аудиокниг или ассистентов - слишком роботизированный.

LuxTTS v1.4: темная лошадка

В январе 2026 вышла LuxTTS v1.4 с обещаниями самой низкой задержки. Мы уже тестировали ее для агентов, но как она ведет себя на слабом железе?

LuxTTS использует Flow Matching вместо VITS. Технически это должно быть быстрее. На практике на RTX 3060:

  • Память: 2.1 ГБ стабильно (не растет)
  • Скорость: 0.4 сек/100 символов
  • Качество: 6.5/10 (хрипловатый тембр)

Проблема LuxTTS в нестабильности. Иногда генерирует идеально, иногда добавляет артефакты. Для продакшена рискованно.

Сравнительная таблица: что выбрать для конкретной задачи

Задача Лучший выбор Альтернатива Чего избегать
Аудиокниги (качество) Qwen3-TTS 0.5B KokoroTTS с reduce_memory Piper, LuxTTS
Голосовой ассистент (скорость) LuxTTS v1.4 Piper 2.0 Qwen3-TTS 1.5B
Пакетная обработка (1000+ файлов) Piper 2.0 LuxTTS KokoroTTS
RTX 2060 6GB Piper 2.0 Qwen3-TTS 0.5B (осторожно) Все остальные

Практический пример: генерация часа аудио на RTX 3060

Допустим, тебе нужно сгенерировать аудиокнигу (примерно 100 000 символов). Вот реальные цифры:

1 Подготовка текста

Разбей текст на chunks по 500-1000 символов. Больше - риск переполнения памяти. Меньше - потеря времени на overhead.

2 Выбор модели и настройка

Для Qwen3-TTS 0.5B:

from transformers import AutoModelForTextToSpeech, AutoTokenizer
import torch

# Загрузка с кэшированием на диск (если мало RAM)
model = AutoModelForTextToSpeech.from_pretrained(
    "Qwen/Qwen3-TTS-0.5B",
    torch_dtype=torch.float16,  # Половина точности
    device_map="auto",
    offload_folder="./offload"  # Сбрасывает части модели на диск
)

# Критично для длинных текстов:
torch.cuda.empty_cache()  # Очистка перед началом

3 Генерация с контролем памяти

def generate_safe(text_chunk, model, tokenizer):
    """Генерация с принудительной очисткой памяти"""
    with torch.no_grad():
        # Входные данные
        inputs = tokenizer(text_chunk, return_tensors="pt").to("cuda")
        
        # Синтез
        audio = model.generate(**inputs)
        
        # Немедленная очистка
        del inputs
        torch.cuda.empty_cache()
        
        return audio.cpu()  # Перемещаем на CPU сразу

С такой реализацией Qwen3-TTS 0.5B обрабатывает 100к символов за ~15 минут на RTX 3060. Память не превышает 4 ГБ.

Неочевидные проблемы, которые встретятся

Проблема 1: CUDA out of memory после нескольких часов работы

Даже с torch.cuda.empty_cache() память потихоньку утекает. Решение - перезапускать процесс каждые 10 000 символов. Грубо, но работает.

Проблема 2: Разная длина пауз в зависимости от модели

Piper ставит паузы строго по знакам препинания. Qwen3-TTS добавляет "естественные" паузы, которые иногда слишком длинные. Для аудиокниг это критично - слушатель засыпает.

Проблема 3: Артефакты на согласных

Все легковесные модели страдают этим. Особенно на звуках "ш", "щ", "ч". KokoroTTS здесь лучший, Qwen3-TTS - хуже всех.

Совет: после генерации прогоняй аудио через простой фильтр высоких частот (high-pass filter). Убирает большинство цифровых артефактов. В FFmpeg: `ffmpeg -i input.wav -af "highpass=f=80" output.wav`

Что будет в 2027? Прогноз от того, кто видел эволюцию

Легковесные TTS движутся в двух направлениях:

  1. Специализированные tiny-модели: Не универсальные 0.5B, а отдельные модели для диалогов (0.1B), для чтения книг (0.3B), для объявлений (0.05B). Каждая оптимизирована под свою задачу.
  2. Аппаратная оптимизация: Модели, которые скомпилированы под конкретные GPU. Не просто CUDA, а под архитектуру Ada или Blackwell. Ускорение в 3-5 раз без потери качества.

Уже сейчас появляются модели, которые работают напрямую с TensorRT или ONNX Runtime. Это следующий шаг. Если выбираешь модель сегодня - смотри на поддержку этих фреймворков.

Мой выбор на февраль 2026 для RTX 3060: Qwen3-TTS 0.5B для качества, Piper 2.0 для скорости. KokoroTTS оставь для экспериментов - слишком нестабильный. LuxTTS посмотри через полгода - может "дозреет".

А если нужен действительно человеческий голос и есть бюджет на железо... Тогда смотри в сторону сравнения с Maya и другими тяжелыми моделями. Но это уже другая история и другие требования к железу.