Vera: локальный поиск кода для AI агентов в 2026 | AiManual
AiManual Logo Ai / Manual.
28 Мар 2026 Инструмент

Vera: локальный поиск кода для AI агентов — установка, настройка и сравнение с аналогами

Обзор Vera — инструмента для локального поиска кода на Rust. Сравнение с аналогами, установка, настройка и примеры использования для AI агентов.

AI агенты ищут код. Медленно. Дорого. Небезопасно.

Представьте, ваш локальный AI-агент пытается понять вашу кодовую базу. Он шлет запросы в облако, ждет ответа 2-3 секунды, платит за каждый вызов и, по сути, отправляет весь ваш код на сторону. Абсурд? В 2026 году — да.

Vera появилась, чтобы исправить эту ерунду. Это не просто поисковик. Это движок, который работает на вашем ноутбуке, не спрашивает разрешения и не пытается продать ваши данные. Написан на Rust, использует BM25 для ключевых слов и векторный поиск через ONNX-модели. И да, он совместим с Model Context Protocol (MCP), который стал стандартом де-факто для подключения инструментов к агентам вроде Claude Desktop или DeepAgents CLI.

💡
На 28 марта 2026 года актуальная версия Vera — 2.1.0. Ключевое изменение — встроенная поддержка модели эмбеддингов BGE-M3 через ONNX Runtime 1.20.0, что на 40% быстрее, чем старый подход с PyTorch.

Что внутри этого Rust-монстра?

Vera не пытается быть всем для всех. Ее задача — найти релевантные фрагменты кода по запросу на естественном языке. Быстро и точно.

  • Гибридный поиск: Классический BM25 (тот же алгоритм, что в Elasticsearch) для точного совпадения терминов + векторный поиск по семантическому смыслу. Результаты ранжируются с помощью cross-encoder (например, модели bge-reranker-v3.0, доступной в ONNX-формате).
  • Локальные эмбеддинги: Забудьте про OpenAI API. Vera использует открытые модели, такие как BGE-M3 или Nomic Embed, преобразованные в ONNX для CPU/GPU инференса. Вы сами выбираете баланс между качеством и скоростью.
  • MCP-сервер из коробки: Ваш агент (скажем, настроенный через архитектуру локальных агентов) просто подключается к Vera по протоколу MCP, как к любому другому инструменту — файловой системе или базе данных.
  • Индексация на стероидах: Парсит 20+ языков программирования, учитывает структуру (функции, классы, импорты). Индекс в десятки раз меньше исходного кода.

Внимание на производительность: Vera написана на Rust, но ONNX Runtime — это все же C++. Если у вас старый CPU без поддержки AVX2, векторный поиск будет тормозить. Проверьте спецификации перед установкой.

Установка: пять минут, и вы в деле

1Ставим бинарник

Самый простой путь — через Cargo, если у вас установлен Rust (версия 1.80 или выше).

cargo install vera-mcp --version 2.1.0

Или скачайте готовый бинарник с GitHub Releases. Для Linux и macOS это одна команда, для Windows — .exe.

2Качаем модель

Vera не тащит за собой гигабайты весов. Она скачивает только то, что вы укажете. Создадим конфиг.

mkdir ~/.vera
cat > ~/.vera/config.yaml << 'EOF'
embedding_model: "BAAI/bge-m3-onnx"  # Или "nomic-ai/nomic-embed-text-v2.5-onnx"
reranker_model: "BAAI/bge-reranker-v3.0-onnx"
onnx_provider: "cuda"  # Или "cpu", если нет GPU
index_path: "~/.vera/index"
EOF

Затем запустите загрузку моделей. Это может занять время, но только один раз.

vera download-models

3Индексируем проект и подключаем к агенту

Перейдите в папку с вашим кодом и запустите индексацию.

cd /path/to/your/monorepo
vera index .

Теперь запустите MCP-сервер Vera. Он будет слушать localhost:8000.

vera serve

В конфиге вашего AI-агента (например, для Claude Desktop) добавьте ресурс MCP со ссылкой на этот сервер. Агент получит инструмент search_code и сможет им пользоваться.

Сравнительная таблица: Vera vs. мир

Инструмент Локальный Поиск по смыслу MCP Сложность Цена (2026)
Vera 2.1.0 Да Да (ONNX) Родная поддержка Низкая Бесплатно (OSS)
Sourcegraph Cloud Нет Ограниченно Через плагин Средняя От $15/мес
OpenGrok Да Нет (только regex) Нет Высокая Бесплатно
Azure AI Search Нет Да (дорого) Нет Высокая От $75/ГБ/мес

Разница очевидна. Vera — единственный инструмент, который дает полный локальный семантический поиск с готовой интеграцией в экосистему AI агентов. OpenGrok — это прошлый век, облачные решения — дыра в бюджете и безопасности.

Живые примеры: как ваш агент будет искать код

Допустим, вы работаете над российским локальным агентом и хотите найти, как в коде обрабатываются ошибки аутентификации.

Агент (через MCP) отправляет в Vera запрос: "функция, которая проверяет OAuth-токен и возвращает ошибку, если срок действия истек".

Vera за миллисекунды делает следующее:

  1. Извлекает ключевые слова: "OAuth", "токен", "ошибка", "срок действия".
  2. Создает вектор эмбеддинга для всего запроса.
  3. Ищет по индексу: сначала BM25, потом векторный поиск.
  4. Ранжирует результаты с помощью cross-encoder, который понимает, что "проверяет токен" важнее, чем "возвращает ошибку".
  5. Возвращает агенту топ-5 фрагментов кода с путями файлов и номерами строк.

Агент получает конкретные примеры и пишет код, который не ломает существующую логику. Никаких галлюцинаций в стиле "40% галлюцинаций в задачах".

Кому впишется Vera в стек?

Если вы ответите "да" хотя бы на один пункт — этот инструмент для вас.

  • Вы разрабатываете или используете локальных AI агентов и устали от задержек облачного поиска.
  • Ваш код лежит в приватных репозиториях, и отправлять его куда-либо — нарушение политики безопасности.
  • Вам нужна максимальная скорость: Vera обрабатывает запросы за 50-150 мс даже на больших индексах. Для сравнения, облачные аналоги — 700-2000 мс.
  • Вы экспериментируете с архитектурами агентов, где низкая латентность критична.
  • Вы не хотите платить за поиск по своему же коду.

Однако, если ваша кодовая база — это три файла на Python, Vera будет избыточна. Проще использовать grep.

Прогноз на 2027 год: та же команда, что стоит за Vera, анонсировала работу над плагином для swarm-агентов, подобных Swarmcore. Интеграция позволит распределенным агентам использовать общий индекс кода без центрального сервера.

Последний совет: не пытайтесь запустить Vera на Raspberry Pi со старым ARM-процессором. ONNX Runtime для ARM еще не так оптимизирован, и векторный поиск будет мучительно медленным. Берите нормальный x86 CPU или, еще лучше, GPU с поддержкой CUDA. Экономия на железе здесь обойдется часами ожидания.

Подписаться на канал