Retriqs: локальный GraphRAG с Ollama в 2026 - обзор и сравнение моделей | AiManual
AiManual Logo Ai / Manual.
23 Мар 2026 Инструмент

Локальный GraphRAG с Ollama: обзор Retriqs и сравнение моделей для экстракции

Практический обзор Retriqs для создания локального GraphRAG с Ollama. Сравнение моделей для экстракции отношений, примеры использования и альтернативы.

Когда облака мешают думать: Retriqs и локальная графовая магия

GraphRAG в 2026 году перестал быть экзотикой. Но пока все обсуждают облачные API за $50 в час, пара разработчиков в гараже сделала Retriqs — настольное приложение, которое превращает вашу коллекцию документов в граф знаний, не отправляя ни байта в интернет. И работает это на Ollama с моделями вроде qwen3:30b-instruct.

Секрет в разделении труда: одна модель вытаскивает сущности и связи из текста, другая — отвечает на ваши вопросы, используя построенный граф. И всё это крутится на вашем железе.

Важно: Retriqs на март 2026 года находится в версии 2.1.3. Это не просто обертка вокруг Ollama API, а полноценный движок для экстракции отношений с кэшированием и оптимизацией под потребительское железо.

Что делает Retriqs и почему это не очередной RAG-фреймворк

Откройте Retriqs, укажите папку с PDF, DOCX или текстовыми файлами. Приложение разобьет документы на чанки, пропустит через выбранную модель для экстракции (например, qwen3:30b-instruct) и построит визуальный граф. Вы увидите, как люди, компании, события и понятия связаны между собой.

💡
Локальная экстракция отношений — это не просто «найди имя собственное». Модель выявляет типы связей: «основал», «инвестировал в», «является конкурентом», «произвел продукт». В статье Knowledge Graph без облаков мы подробно разбирали, как работают современные модели для этих задач.

После построения графа вы задаете вопрос в интерфейсе. Система не ищет похожие чанки, а анализирует граф, находит релевантные сущности и контекстные пути между ними, а затем формулирует ответ через вторую модель (например, более легкую mistral-nemo-instruct-12b).

LightRAG, LlamaIndex и другие: с чем сравнить Retriqs в 2026

LightRAG — главный конкурент в нише локальных графовых систем. Он легче и больше заточен под разработчиков, предлагая Python API. Retriqs же — это законченное приложение для аналитиков, исследователей, юристов. Просто запустил и работаешь.

Инструмент Фокус Интерфейс Гибкость
Retriqs Готовое приложение для нетекстовых специалистов Графический (GUI) Ограничена настройками UI
LightRAG Библиотека для разработки сложных RAG-систем Командная строка / API Высокая, программируемая
LlamaIndex с плагинами Прототипирование и исследовательские задачи Jupyter Notebook Очень высокая

Если вы хотите собрать систему с нуля, вам пригодится полное руководство по локальному Agentic RAG. Но для повседневной работы с документами Retriqs выигрывает у всех своей простотой.

Какие модели ставить для экстракции, а какие — для ответов в 2026 году

Здесь большинство обламывается. Берут одну модель на все случаи жизни и удивляются, почему граф строится пять часов, а ответы звучат как бред.

1 Для экстракции: тяжелые и умные

Извлечение отношений требует понимания контекста и следования инструкциям. На март 2026 года для этой задачи в Ollama доступны:

  • qwen3:30b-instruct — проверенный вариант с хорошим балансом точности и скорости. Отлично справляется с многоэтапными инструкциями по извлечению.
  • gemma-3:27b-it — новая модель от Google (релиз январь 2026), показывает лучшие результаты на структурированных выводах, но требует больше VRAM.
  • mixtral-moe-8x24b-instruct — если у вас много ядер и памяти, эта модель выдаст самое качественное извлечение, но готовьтесь ждать.

Совет: настройте в Retriqs кэширование результатов экстракции. Первый прогон будет долгим, но все последующие запросы к тем же документам — мгновенными.

2 Для генерации ответов: быстрые и конкретные

Здесь не нужна глубокая аналитика, нужно точно следовать контексту графа. Берите модели поменьше:

  • mistral-nemo-instruct-12b (обновление декабрь 2025) — идеальный баланс скорости и адекватности. Отлично структурирует ответы.
  • llama-4:8b-instruct-q4 — если ресурсы очень ограничены. Качество чуть ниже, но работает даже на интегрированной графике.
  • deepseek-coder-v3:7b-instruct — неожиданно хороша для точных ответов по техническим и бизнес-документам.

Не пытайтесь использовать для ответов ту же модель, что и для экстракции. Это как заставлять инженера-конструктора еще и письма клиентам писать — неэффективно и дорого. О том, как заставить маленькую модель работать как большая, читайте в отдельном руководстве по сжатию контекста.

Кому Retriqs сломает жизнь, а кому — сэкономит год работы

Этот инструмент не для всех. Если вы ждете волшебной кнопки «сделать анализ», вас ждет разочарование. Но есть сценарии, где Retriqs незаменим.

Берите Retriqs, если:

  • Работаете с конфиденциальными документами (юридические дела, медицинские истории, внутренние отчеты) и не можете использовать облако.
  • Вам нужно анализировать связи в большом архиве документов, а не просто искать по ключевым словам.
  • У вас есть GPU с 16+ GB VRAM (например, RTX 4080 или лучше) и вы готовы ждать первоначальную обработку.
  • Вы исследователь или аналитик без глубоких навыков программирования, но с пониманием предметной области.

Не тратьте время, если:

  • У вас только CPU или слабая видеокарта. Экстракция на qwen3:30b-instruct займет дни.
  • Вам нужна интеграция с production-системой. Retriqs — это desktop-приложение, а не микросервис.
  • Вы ждете готовых решений для своей узкой области. Придется настраивать промпты и параметры самостоятельно.
💡
Retriqs особенно хорошо показывает себя в паре с техниками из статьи Contextrie. Краткий брифинг перед экстракцией повышает качество графа на 20-30% по нашим тестам.

Что будет завтра: почему локальный GraphRAG умрет или выживет

К концу 2026 года мы увидим две тенденции. С одной стороны — специализированные чипы для локального AI (уже анонсированы Intel и AMD), которые сделают экстракцию в 10 раз быстрее. С другой — облачные сервисы предложат «локальные зоны» с гарантией изоляции данных.

Retriqs в его текущем виде, вероятно, превратится в платформу для вертикальных решений. Представьте Retriqs для юристов с предобученными промптами на извлечение правовых норм или для врачей — с шаблонами для медицинских историй.

Но главный урок 2026 года уже ясен: сложные RAG-системы больше не требуют облачных API. Инструменты вроде Retriqs, LightRAG и обновленного Ollama доказывают, что можно работать с миллионами токенов локально — если правильно подобрать модели и не жалеть времени на настройку. И да, ваш RTX 4090 наконец-то окупится.

Подписаться на канал