Промпты умерли? Да здравствуют слайдеры!
Забудьте на минуту про "system prompt", "temperature" и "top_p". Vellium 2.3.1, вышедший в январе 2026 года, предлагает радикально другой подход к творческому письму с ИИ. Вместо того чтобы заучивать магические слова для LLM, вы просто двигаете ползунки.
Что делает Vellium особенным?
Это не просто еще один фронтенд для LLM вроде тех, что мы видели в статье про V6rge. Разработчики Vellium пошли другим путем:
- Визуальный контроль тона: вместо "напиши в стиле Хемингуэя" - ползунок "лаконичность" от 0 до 100
- Динамические персонажи: система отношений между героями, которая влияет на диалоги
- Фоновое поколение: ИИ работает в фоне, предлагая варианты, пока вы печатаете
- Мгновенный экспорт: из интерфейса прямо в Markdown, PDF или даже в субтитры для видео
Техническая кухня: что внутри?
Под капотом Vellium использует Electron (да, я знаю, но работает шустро) и три основных способа подключения к LLM:
| Метод | Что умеет | Для кого |
|---|---|---|
| Ollama | Локальные модели, полная приватность | Параноики и любители оффлайна |
| LM Studio | Графический интерфейс для управления моделями | Новички, кто боится терминала |
| MCP Server | Инструменты вроде поиска в интернете, работы с файлами | Продвинутые пользователи |
MCP tool calling в Vellium 2.3.1 работает только с Claude API. Для локальных моделей нужно ждать обновления или использовать другие инструменты для работы с документами.
Vellium против SillyTavern: битва титанов
Если вы знакомы с SillyTavern, вот что изменилось в 2026 году:
- SillyTavern все еще требует ручного редактирования character cards в JSON. Vellium генерирует их автоматически из описания
- Импорт ST V2 в Vellium работает, но теряются некоторые расширенные настройки
- Производительность: Vellium на Electron иногда тормозит на слабых машинах. SillyTavern легче
- Сообщество: у SillyTavern больше плагинов. У Vellium - более продуманный базовый функционал
Практика: как это выглядит в работе
Допустим, вы пишете диалог для романа. Вместо того чтобы каждый раз писать "персонаж А говорит саркастично", вы:
- Выбираете персонажа в левой панели
- Двигаете ползунок "сарказм" до 70%
- Добавляете "нервозность" 40% через контекстное меню
- Начинаете печатать - ИИ сразу подстраивает ответы
Система запоминает эти настройки для каждой сцены. Если позже вы вернетесь к этому диалогу - все ползунки останутся на своих местах.
Кому подойдет Vellium в 2026 году?
Не всем. Вот моя субъективная классификация:
1 Идеальный пользователь
Писатель-любитель, который уже пробовал ChatGPT для сюжетов, но устал от постоянной настройки тона. У него есть RTX 4070 или лучше, и он готов потратить вечер на настройку Ollama с Llama 3.2 11B.
2 Может подойти
Сценарист, которому нужно быстро генерировать варианты диалогов. Особенно если он работает с чувствительными материалами и не может использовать облачные сервисы. Для таких задач лучше подойдет локальная система обработки документов.
3 Не подойдет совсем
Тот, кто ждет "волшебной кнопки" для написания бестселлера. Или пользователь слабого ноутбука без дискретной видеокарты. Им стоит посмотреть в сторону более легких редакторов.
Главная проблема Vellium (которая может быть фичей)
Интерфейс. Он одновременно и интуитивный, и перегруженный. С одной стороны - визуальные подсказки, с другой - куча мелких иконок, назначение которых не очевидно. Первые 30 минут вы будете тыкать во все подряд, пытаясь понять, зачем нужен этот переключатель в углу.
Разработчики обещают в версии 3.0 полностью переработать UX. Но пока что - это инструмент для тех, кто готов разбираться.
Что будет дальше? Мой прогноз
К концу 2026 года мы увидим два тренда:
- Либо Vellium упростят до уровня, когда его сможет использовать любой писатель
- Либо он уйдет в нишу профессиональных инструментов, как когда-то это случилось с сложными системами для заметок
Пока что - это самый интересный эксперимент в области интерфейсов для творческого письма с ИИ. Не идеальный, но заставляющий задуматься: а что если промпты действительно устарели?
Совет от практика: начните с локальной установки Ollama и модели Llama 3.2 7B. Она достаточно умна для творческих задач и работает даже на 8 ГБ оперативной памяти. Только не пытайтесь сразу импортировать все свои старые проекты - начните с одной короткой сцены.
И последнее: если вы ждете, что ИИ напишет за вас гениальный роман - разочарую. Vellium, как и Prism от OpenAI, всего лишь инструмент. Интересный, необычный, местами раздражающий. Но инструмент.
Гениальность все еще приходится генерировать самостоятельно. К счастью.