Когда облака мешают думать: Retriqs и локальная графовая магия
GraphRAG в 2026 году перестал быть экзотикой. Но пока все обсуждают облачные API за $50 в час, пара разработчиков в гараже сделала Retriqs — настольное приложение, которое превращает вашу коллекцию документов в граф знаний, не отправляя ни байта в интернет. И работает это на Ollama с моделями вроде qwen3:30b-instruct.
Секрет в разделении труда: одна модель вытаскивает сущности и связи из текста, другая — отвечает на ваши вопросы, используя построенный граф. И всё это крутится на вашем железе.
Важно: Retriqs на март 2026 года находится в версии 2.1.3. Это не просто обертка вокруг Ollama API, а полноценный движок для экстракции отношений с кэшированием и оптимизацией под потребительское железо.
Что делает Retriqs и почему это не очередной RAG-фреймворк
Откройте Retriqs, укажите папку с PDF, DOCX или текстовыми файлами. Приложение разобьет документы на чанки, пропустит через выбранную модель для экстракции (например, qwen3:30b-instruct) и построит визуальный граф. Вы увидите, как люди, компании, события и понятия связаны между собой.
После построения графа вы задаете вопрос в интерфейсе. Система не ищет похожие чанки, а анализирует граф, находит релевантные сущности и контекстные пути между ними, а затем формулирует ответ через вторую модель (например, более легкую mistral-nemo-instruct-12b).
LightRAG, LlamaIndex и другие: с чем сравнить Retriqs в 2026
LightRAG — главный конкурент в нише локальных графовых систем. Он легче и больше заточен под разработчиков, предлагая Python API. Retriqs же — это законченное приложение для аналитиков, исследователей, юристов. Просто запустил и работаешь.
| Инструмент | Фокус | Интерфейс | Гибкость |
|---|---|---|---|
| Retriqs | Готовое приложение для нетекстовых специалистов | Графический (GUI) | Ограничена настройками UI |
| LightRAG | Библиотека для разработки сложных RAG-систем | Командная строка / API | Высокая, программируемая |
| LlamaIndex с плагинами | Прототипирование и исследовательские задачи | Jupyter Notebook | Очень высокая |
Если вы хотите собрать систему с нуля, вам пригодится полное руководство по локальному Agentic RAG. Но для повседневной работы с документами Retriqs выигрывает у всех своей простотой.
Какие модели ставить для экстракции, а какие — для ответов в 2026 году
Здесь большинство обламывается. Берут одну модель на все случаи жизни и удивляются, почему граф строится пять часов, а ответы звучат как бред.
1 Для экстракции: тяжелые и умные
Извлечение отношений требует понимания контекста и следования инструкциям. На март 2026 года для этой задачи в Ollama доступны:
- qwen3:30b-instruct — проверенный вариант с хорошим балансом точности и скорости. Отлично справляется с многоэтапными инструкциями по извлечению.
- gemma-3:27b-it — новая модель от Google (релиз январь 2026), показывает лучшие результаты на структурированных выводах, но требует больше VRAM.
- mixtral-moe-8x24b-instruct — если у вас много ядер и памяти, эта модель выдаст самое качественное извлечение, но готовьтесь ждать.
Совет: настройте в Retriqs кэширование результатов экстракции. Первый прогон будет долгим, но все последующие запросы к тем же документам — мгновенными.
2 Для генерации ответов: быстрые и конкретные
Здесь не нужна глубокая аналитика, нужно точно следовать контексту графа. Берите модели поменьше:
- mistral-nemo-instruct-12b (обновление декабрь 2025) — идеальный баланс скорости и адекватности. Отлично структурирует ответы.
- llama-4:8b-instruct-q4 — если ресурсы очень ограничены. Качество чуть ниже, но работает даже на интегрированной графике.
- deepseek-coder-v3:7b-instruct — неожиданно хороша для точных ответов по техническим и бизнес-документам.
Не пытайтесь использовать для ответов ту же модель, что и для экстракции. Это как заставлять инженера-конструктора еще и письма клиентам писать — неэффективно и дорого. О том, как заставить маленькую модель работать как большая, читайте в отдельном руководстве по сжатию контекста.
Кому Retriqs сломает жизнь, а кому — сэкономит год работы
Этот инструмент не для всех. Если вы ждете волшебной кнопки «сделать анализ», вас ждет разочарование. Но есть сценарии, где Retriqs незаменим.
Берите Retriqs, если:
- Работаете с конфиденциальными документами (юридические дела, медицинские истории, внутренние отчеты) и не можете использовать облако.
- Вам нужно анализировать связи в большом архиве документов, а не просто искать по ключевым словам.
- У вас есть GPU с 16+ GB VRAM (например, RTX 4080 или лучше) и вы готовы ждать первоначальную обработку.
- Вы исследователь или аналитик без глубоких навыков программирования, но с пониманием предметной области.
Не тратьте время, если:
- У вас только CPU или слабая видеокарта. Экстракция на qwen3:30b-instruct займет дни.
- Вам нужна интеграция с production-системой. Retriqs — это desktop-приложение, а не микросервис.
- Вы ждете готовых решений для своей узкой области. Придется настраивать промпты и параметры самостоятельно.
Что будет завтра: почему локальный GraphRAG умрет или выживет
К концу 2026 года мы увидим две тенденции. С одной стороны — специализированные чипы для локального AI (уже анонсированы Intel и AMD), которые сделают экстракцию в 10 раз быстрее. С другой — облачные сервисы предложат «локальные зоны» с гарантией изоляции данных.
Retriqs в его текущем виде, вероятно, превратится в платформу для вертикальных решений. Представьте Retriqs для юристов с предобученными промптами на извлечение правовых норм или для врачей — с шаблонами для медицинских историй.
Но главный урок 2026 года уже ясен: сложные RAG-системы больше не требуют облачных API. Инструменты вроде Retriqs, LightRAG и обновленного Ollama доказывают, что можно работать с миллионами токенов локально — если правильно подобрать модели и не жалеть времени на настройку. И да, ваш RTX 4090 наконец-то окупится.