Perplexity, но у себя в гостиной: зачем нужен локальный поиск
Представьте: вы спрашиваете у AI о чем-то конфиденциальном. Рабочий проект, медицинские симптомы, финансовые вопросы. И каждый запрос улетает в облако, где его анализируют, хранят, а потом продают ваши данные рекламодателям. Знакомо?
Verity решает эту проблему радикально — он вообще не выходит в интернет. Ну, почти. Это open-source проект, который ставит на ваш компьютер полноценный аналог Perplexity, но с локальными моделями. Все вычисления — на вашем железе. Все данные — в вашей памяти. Никаких подписок, никаких лимитов, никакого слежения.
Что умеет Verity: не просто чат, а поисковая система
Многие путают Verity с обычным чат-интерфейсом для локальных LLM. Это ошибка. Verity — именно поисковая система. Вот как это работает:
- Модуль индексации — сканирует ваши документы, создает векторные embeddings. Поддерживает PDF, DOCX, TXT, даже код из репозиториев.
- Поисковый движок — находит релевантные фрагменты по семантическому сходству. Использует SecreXNG под капотом.
- Генерация ответов — LLM получает найденные контексты и генерирует ответ с цитатами. Как в Perplexity, только локально.
- Веб-интерфейс — чистый, минималистичный UI. Никаких лишних кнопок, только поисковая строка и результаты.
Архитектура модульная. Можно заменить поисковый движок, поменять модель для генерации, добавить новые источники данных. Все через конфигурационные файлы.
Установка: пять минут, и вы в деле
Самый болезненный момент в локальных AI-инструментах — установка. Разработчики Verity это поняли и сделали процесс максимально простым.
1 Клонируем репозиторий
git clone https://github.com/verity-search/verity.git
cd verity
2 Ставим зависимости
pip install -r requirements.txt
Тут есть нюанс: если у вас Intel Core Ultra с NPU, дополнительно ставите OpenVINO. Для NVIDIA — свои драйверы. Verity определяет железо автоматически.
3 Настраиваем конфиг
Открываем config.yaml, выбираем модель. Для начала подойдет что-то легкое вроде Qwen2.5-7B. Если железо позволяет — берем 32B версию.
4 Запускаем
python main.py --web-ui
Открываем браузер, переходим на http://localhost:7860. Все, можно искать.
Важный момент: первая индексация документов займет время. Не пугайтесь, если Verity будет несколько минут молча работать — он создает векторную базу. Последующие поиски будут мгновенными.
Verity vs Ollama: кто кого?
Сравнивать Verity с Ollama — как сравнивать автомобиль с двигателем. Ollama — это движок для запуска моделей. Verity — готовый автомобиль с этим движком внутри.
| Критерий | Verity | Ollama |
|---|---|---|
| Основная задача | Поисковая система с RAG | Запуск LLM моделей |
| Интерфейс | Веб-UI, похожий на Perplexity | API и командная строка |
| Индексация документов | Встроенная, автоматическая | Требует дополнительных инструментов |
| Поддержка железа | CPU/GPU/NPU через OpenVINO | В основном CPU/GPU |
| Сложность настройки | Средняя, но есть готовый UI | Низкая для базового использования |
По факту, Verity использует Ollama под капотом для запуска моделей. Но добавляет поверх все, что нужно для поиска: интерфейс, индексацию, управление контекстом.
Если вы уже используете Ollama для локальных LLM, то Verity станет естественным следующим шагом. Вместо того чтобы вручную собирать RAG-пайплайн, вы получаете готовое решение.
OpenVINO и NPU: магия на Intel Core Ultra
Вот где Verity действительно выделяется. Поддержка OpenVINO 2025.4 означает, что на процессорах Intel Core Ultra с NPU (нейропроцессором) поиск работает в разы быстрее.
Как это выглядит на практике:
- Инференс на NPU — генерация ответов идет на специализированном AI-ускорителе, не нагружая CPU
- Оптимизация под Intel — модели конвертируются в формат OpenVINO IR, что дает прирост 30-40% по сравнению с базовым PyTorch
- Энергоэффективность — NPU потребляет меньше энергии, чем GPU, что важно для ноутбуков
Если у вас современный ноутбук с Intel Core Ultra (2024-2025 года выпуска), Verity будет летать. Причем без отдельной видеокарты.
Кому подойдет Verity (а кому нет)
Verity — не универсальный инструмент. Он решает конкретные задачи для конкретных людей.
Берите Verity, если:
- Работаете с конфиденциальными документами и не хотите заливать их в облачные сервисы
- Нужен персональный поиск по локальным файлам с AI-ассистентом
- Уже устали от подписок на Perplexity и хотите разовый setup
- Имеете современный ПК с Intel Core Ultra или хорошей видеокартой
- Технически подкованы и не боитесь покопаться в конфигах
Не тратьте время, если:
- Ищете максимально простой "установил и работает" без настроек
- У вас слабое железо (меньше 16 ГБ ОЗУ, нет современного CPU)
- Нужен поиск по свежим интернет-данным (Verity работает только с локальными документами)
- Хотите готовые интеграции с облачными сервисами
Практические сценарии: где Verity выстреливает
Теория — это хорошо, но как Verity работает в реальной жизни? Вот несколько примеров из моего опыта:
Сценарий 1: Поиск по технической документации
У меня есть папка с документацией по внутренним API компании (200+ PDF). Раньше чтобы найти конкретный endpoint, приходилось открывать десятки файлов. С Verity — просто пишу запрос вроде "как аутентифицироваться через OAuth 2.0" и получаю ответ с цитатами из релевантных документов.
Сценарий 2: Анализ локальных логов
Сервер падает раз в неделю. Логов — гигабайты. Загружаю логи за месяц в Verity, спрашиваю: "Какие ошибки чаще всего встречаются перед падением?" AI анализирует, находит паттерны, предлагает гипотезы.
Сценарий 3: Персональная база знаний
Сохраняю в Verity статьи, заметки, рецепты, идеи для проектов. Потом ищу не по ключевым словам, а по смыслу. "Найди все про оптимизацию Python кода" — и получаю релевантные фрагменты из разных источников.
Ограничения и подводные камни
Без недостатков не бывает. Verity — молодой проект, и у него есть свои косяки.
Главная проблема на 08.02.2026 — стабильность с большими базами документов. Если индексируете больше 10 000 файлов, могут быть проблемы с памятью. Разработчики обещают исправить в ближайших релизах.
Другие нюансы:
- Нет инкрементальной индексации — при добавлении новых файлов нужно переиндексировать всю коллекцию. Медленно.
- Ограниченная поддержка форматов — PDF и DOCX работают хорошо, но с презентациями или таблицами могут быть проблемы.
- Требует технических навыков — если никогда не работали с командной строкой или конфигурационными файлами, будет сложно.
- Англоязычные модели работают лучше — для русского поиска нужно искать специально дообученные модели.
Что дальше? Будущее локального поиска
Verity — не единственный игрок в этой нише. На 2026 год появляются аналогичные проекты, но Verity выделяется своей архитектурой и поддержкой OpenVINO.
Если вы уже экспериментировали с локальными LLM и RAG, то Verity станет логичным следующим шагом. Это мост между сложными техническими настройками и удобным пользовательским интерфейсом.
Мой прогноз: через год такие инструменты станут стандартом для работы с конфиденциальными данными. Зачем платить Perplexity $20 в месяц, если можно один раз настроить локальное решение?
Попробуйте Verity. Даже если не останетесь с ним навсегда, получите представление о том, как будет выглядеть поиск будущего — приватный, быстрый и полностью под вашим контролем.