Рынок сходит с ума, а вы — нет?
В 2026 году в российском enterprise никто не хочет остаться без своего собственного “умного помощника”. Заказчики требуют AI-функций, интеграторы разводят руками, а платформы плодятся как грибы после дождя. Мы взяли три самых обсуждаемых GenAI-решения — SimpleOne GenAI, BPMSoft AI и ELMA Cortex — и заглянули под капот. Без маркетинговой шелухи, только железобетонная архитектура.
Важный контекст: по данным CNews, 78% крупных компаний уже пилотируют хотя бы одну GenAI-систему. Выбор платформы — вопрос не “когда”, а “на чем”.
SimpleOne GenAI: микросервисы на стероидах
SimpleOne пошли по пути “собери сам”. Их GenAI-слой — не монолит, а набор микросервисов, каждый из которых отвечает за свою узкую задачу: генерация текста, RAG-поиск, классификация инцидентов, агентная оркестрация. В центре — собственный LLM-шлюз с поддержкой как open-source моделей (LLaMA, Mistral, Qwen), так и коммерческих (GigaChat, YandexGPT).
Архитектура использует паттерн “модель-сопроцессор” — человек остается в контуре принятия решений, а ИИ только предлагает варианты. Этот подход подробно описан в нашей статье про модель сопроцессоров. Проблема SimpleOne — сложность деплоя. Без команды квалифицированных MLOps-инженеров запустить всю эту кухню тяжело.
| Характеристика | SimpleOne GenAI | BPMSoft AI | ELMA Cortex |
|---|---|---|---|
| Архитектурный стиль | Микросервисы + LLM-шлюз | Встроенный Copilot в BPMS | Агентная платформа + онпремиз |
| Поддержка моделей | Все популярные LLM | Только GigaChat и YandexGPT | Открытые LLM + собственный адаптер |
| RAG | Встроенный векторный поиск | Через модуль знаний | Гибридный (sparse+dense) |
| Где работает | On-prem / Cloud | Cloud / Госконтур | Только on-prem |
BPMSoft AI: Copilot, который живет в BPM
BPMSoft пошли другим путем. Они не стали выносить ИИ в отдельный слой, а встроили AI-агента прямо в свою BPMS. Copilot умеет читать процессы, предлагать оптимизацию маршрутов, подсказывать исполнителям, какие документы нужны, и даже генерировать скрипты для low-code. Звучит круто, но есть нюанс: платформа заточена только на собственные модели Яндекса и Сбера. Если вы хотите прикрутить LLaMA или Qwen — увы.
C BPMSoft AI удобно работать, если вы уже сидите на их BPMS. А вот для тех, кто начинает проект с нуля, архитектура выглядит как черный ящик. Да и стоимость лицензий кусается. Впрочем, для госсектора, где требуется работа через ЕПГУ, BPMSoft — часто единственный вариант.
ELMA Cortex: безопасность выше всего
ELMA позиционирует Cortex как “защищенную AI-экосистему”. Архитектура полностью онпремизная, никакого облака. Все данные крутятся внутри периметра клиента. Модели — только open-source с возможностью подключения через универсальный адаптер. В основе — агентный фреймворк: каждый процесс управляется независимыми AI-агентами, которые общаются через шину событий.
По сравнению с предыдущими решениями, ELMA делает ставку на автономность. Агенты могут эмулировать целые цепочки действий без участия человека. Это напоминает то, о чем мы писали в статье про AI-native подход — ИИ не просто помогает, а сам ведет процессы. Минус: сложность настройки. Чтобы научить агентов работать корректно, нужно прописать сотни правил и исключений.
Как не прогадать с выбором?
Задайте себе три вопроса:
- Вы готовы строить инфраструктуру самостоятельно? Да — смотрите в сторону SimpleOne.
- У вас жесткие требования к безопасности и режимные данные? Ваш вариант — ELMA Cortex.
- Хотите быстро “коробочное” решение с привязкой к вендору? Платите за BPMSoft AI.
Кстати, совсем недавно мы разбирали какие LLM вообще доступны в России — этот материал поможет понять, какие модели поддерживает та или иная платформа.
Где правда?
Правда в том, что ни одна платформа не даст вам “серебряной пули”. GenAI — это не про установку пакета. Это про долгую настройку, итерации, обучение команды. И про то, что через полгода выйдет новая версия LLM — и половина ваших промптов перестанет работать. Готовьтесь к этому.
Прогноз к концу 2026: All-in-one платформы типа BPMSoft AI будут активно съедать долю, но архитектура SimpleOne и ELMA Cortex останутся выбором тех, кто не хочет зависеть от одного вендора. Тренд — на модульность и локальные AI-агенты, которые могут работать даже без интернета. Второе дыхание получит open-source — уже сегодня видно, как российские компании форкают LLaMA и дообучают на своих данных. За этим будущее.