Drift Cortex OSS — оффлайн память для AI-агентов | 10к файлов за 2 секунды | AiManual
AiManual Logo Ai / Manual.
01 Фев 2026 Инструмент

Drift Cortex OSS: когда ваш AI-агент наконец-то запомнил, где лежат файлы

Обзор Drift Cortex OSS — локального «мозга» для AI-агентов с AST-парсером, MCP интеграцией и семантическим поиском. Индексирует 10к файлов за 2 секунды.

Вы устали объяснять агенту одно и то же?

Каждый раз, когда вы открываете диалог с Claude Code, GPT-4.5 Turbo или любым другим AI-ассистентом — начинается один и тот же ритуал. Вы объясняете структуру проекта. Показываете, где лежат конфиги. Рассказываете про архитектурные решения. А через час агент все забывает, и вы начинаете сначала.

Проблема не в моделях. Claude 3.7 Sonnet помнит контекст лучше, чем некоторые мои коллеги. Проблема в том, что у агентов нет постоянной памяти. Они живут в вечном «здесь и сейчас», а ваш код — это долгосрочные отношения.

На 01.02.2026 большинство AI-агентов все еще работают с контекстом как с оперативной памятью — включил, поработал, выключил, забыл. Drift Cortex OSS решает именно эту проблему.

Что такое Drift Cortex? Короче, это жесткий диск для вашего агента

Представьте, что у вашего AI-ассистента появилась собственная файловая система. Не просто папка с документами, а полноценная семантическая память, которая понимает структуру вашего кода, связи между модулями и даже архитектурные паттерны.

Drift Cortex OSS — это open-source слой постоянной памяти для AI-агентов. Он работает полностью локально, индексирует ваш код с помощью AST-парсеров, строит семантические embeddings и интегрируется через Model Context Protocol (MCP).

💡
Если вы пропустили базовое объяснение MCP — это стандарт от Anthropic, который работает как USB для AI-агентов. Универсальный разъем для подключения внешних данных. Мы подробно разбирали его в статье про Drift MCP и интуицию senior-разработчика.

Цифры, от которых у RAG-систем начинается паника

Разработчики Drift Cortex не стесняются конкретики. Вот что они заявляют на 01.02.2026:

Метрика Значение Контекст
Индексация 10 000 файлов за 2 секунды На SSD, средний размер файла 5 КБ
Поиск ~50 мс latency Семантический поиск по embeddings
Память ~1 ГБ на 100к файлов Сжатые векторы + метаданные
Языки 30+ через Tree-sitter Включая TypeScript 5.5, Python 3.13, Rust 1.83

10 тысяч файлов за 2 секунды — это не опечатка. Для сравнения, традиционные RAG-системы на том же объеме могут тормозить минутами. В Cortex используется трюк с потоковой индексацией и инкрементальным обновлением.

Архитектура: почему это не очередной векторный поиск

Если думаете, что Drift Cortex — это просто ChromaDB или Qdrant под капотом, ошибаетесь. Архитектура здесь трехслойная, и каждый слой решает конкретную проблему.

1 AST-парсер вместо регулярных выражений

Первый слой — это Tree-sitter с поддержкой последних версий языков на 01.02.2026. Он не просто читает текст, а строит абстрактное синтаксическое дерево. Это значит, что Cortex понимает разницу между объявлением функции и ее вызовом, между классом и интерфейсом, между импортом и экспортом.

Если в предыдущей версии Drift было 150+ детекторов паттернов, то в Cortex этот анализ стал фундаментом для семантического поиска.

2 Семантические embeddings с контекстом кода

Второй слой — это где магия превращается в математику. Cortex использует специализированные модели для embeddings кода (на 01.02.2026 это чаще всего fine-tuned версии SentenceTransformers или собственные модели на основе CodeBERT).

Важный нюанс: embeddings строятся не просто по тексту файла, а с учетом AST-структуры. Функция calculateTotal() в контексте класса Invoice и та же функция в утилите mathHelpers — получат разные векторы.

3 MCP-интеграция как универсальный адаптер

Третий слой — это Model Context Protocol. Cortex выступает как MCP-сервер, к которому могут подключаться любые совместимые агенты: Claude Code, Cursor, Cognitive OS или ваши собственные разработки.

Через MCP агент получает не просто поиск по файлам, а полноценный API для навигации по кодовой базе: «покажи все функции, которые вызывают этот метод», «найди все места, где используется этот интерфейс», «какие модули зависят от этой библиотеки».

Как это выглядит на практике? Сценарии, которые работают

Допустим, вы вернулись к проекту после двухнедельного отпуска. Вместо того чтобы заново объяснять агенту архитектуру, вы просто говорите: «Посмотри в Cortex, там есть индекс этого проекта».

  • Утренний брифинг: «Какие изменения были внесены в модуль payment за последнюю неделю?» — агент лезет в Cortex, находит коммиты, анализирует diff.
  • Расследование бага: «Где используется функция processTransaction с amount больше 10000?» — семантический поиск + анализ вызовов.
  • Рефакторинг: «Найди все классы, которые нарушают принцип единственной ответственности» — тут работают те самые 150+ детекторов из предыдущей версии Drift.

Интеграция с git — отдельная фича Cortex. Система умеет отслеживать изменения между коммитами и обновлять семантические embeddings инкрементально. Не нужно переиндексировать весь проект после каждого git push.

С чем сравнивать? Альтернативы, которые проигрывают

На рынке инструментов для AI-агентов на 01.02.2026 есть несколько подходов, и каждый сломан по-своему.

Инструмент Подход Проблема
Классический RAG (Chroma, Pinecone) Векторный поиск по документам Не понимает структуру кода, медленная индексация, облачные зависимости
Статические анализаторы (SonarQube) AST + правила качества Нет семантического поиска, нет интеграции с агентами
IDE-плагины (Tabnine, GitHub Copilot) Локальный контекст файла Ограничены текущим файлом, нет глобальной картины
Drift Cortex OSS AST + семантика + MCP Работает локально, понимает код, быстрая индексация

Главное преимущество Cortex — он не пытается быть универсальным RAG для всего. Он заточен именно под код, и эта специализация дает 10x прирост в скорости и точности.

Кому это нужно? (Спойлер: почти всем)

Drift Cortex OSS — не нишевый инструмент для энтузиастов. Вот кто выиграет от его использования прямо сейчас:

  • Разработчики на больших codebases: Если ваш проект больше 50к строк кода, вы уже тратите 30% времени на объяснения агенту. Cortex сокращает эти затраты до нуля.
  • Команды с высокой текучкой: Новый разработчик подключается к проекту, запускает Cortex, и через 5 минут агент знает код лучше, чем senior, который уволился месяц назад.
  • Аудиторы безопасности: Поиск уязвимостей через семантические паттерны — в Cortex встроены те же детекторы, что и в Drift для аудита кода.
  • Интеграторы AI-агентов: Если вы строите кастомные workflow с помощью поиска для AI-агентов или мультиагентные системы — Cortex становится вашим слоем памяти.
💡
Для тех, кто работает с sensitive code и не хочет отправлять его в облако (даже в зашифрованном виде), Cortex предлагает полностью оффлайн работу. Все embeddings строятся локально, все поиски выполняются на вашей машине. Это отличает его от облачных RAG-решений, где ваш код где-то хранится и обрабатывается.

Что под капотом? Технические детали, которые имеют значение

На 01.02.2026 Drift Cortex OSS написан на Rust (для производительности) с Python-биндингами (для удобства). Вот что стоит знать:

  • Хранилище: SQLite для метаданных + mmap-файлы для векторов. Никаких тяжелых баз данных.
  • Модели: Поддерживаются любые модели для embeddings через ONNX Runtime. Есть предобученные модели для 15 языков программирования.
  • Индексация: Потоковая, с приоритизацией по частоте изменений. Файлы в src/ индексируются раньше, чем документация.
  • API: REST для интеграций + MCP-сервер для агентов + CLI для администрирования.

Установка — стандартная для open-source проектов:

# Через pip (Python биндинги)
pip install drift-cortex

# Или из исходников
git clone https://github.com/drift-org/cortex
cd cortex
cargo build --release

Подводные камни (потому что идеальных инструментов не бывает)

Drift Cortex — не silver bullet. Вот с чем придется столкнуться:

Потребление памяти: 1 ГБ на 100к файлов — это только embeddings. AST-деревья и метаданные могут добавить еще 500 МБ. На маленьких проектах это незаметно, но на монолитах в миллион строк нужно следить за памятью.

  • Кривая обучения: MCP — пока еще нишевый протокол. Если вы не работали с Claude Code или мультиагентными IDE, придется разбираться.
  • Поддержка языков: 30+ языков — звучит впечатляюще, но для экзотических DSL или legacy-кода на COBOL придется писать свои парсеры.
  • Инкрементальность: Да, Cortex умеет обновлять индекс частично. Но если вы переименовали базовый класс, от которого зависит полпроекта — лучше переиндексировать все. Система предупредит об этом.

Что дальше? Куда движется экосистема

На 01.02.2026 Drift Cortex OSS — это только начало. В roadmap на ближайшие месяцы:

  1. Интеграция с live-редакторами: Слежение за изменениями в реальном времени, без явной индексации.
  2. Мультимодальность: Пока Cortex работает только с кодом. Но архитектура позволяет добавлять парсеры для документации, диаграмм, даже видеоархивов (через OCR и транскрипцию).
  3. Распределенная память: Синхронизация индексов между членами команды, чтобы не индексировать один и тот же проект десять раз.
  4. Граф знаний: Сейчас Cortex хранит embeddings. В будущем — полноценный граф зависимостей, похожий на тот, что используется в контекст-инжиниринге для AI-агентов.

Самое интересное — это как Cortex меняет сам подход к работе с AI-агентами. Раньше агент был временным консультантом. Теперь он становится постоянным членом команды, который помнит всю историю проекта.

Стоит ли пробовать? Мой вердикт

Если вы тратите больше 5 минут в день на объяснение кода AI-ассистенту — Drift Cortex OSS окупится за неделю. Даже если просто как эксперимент.

Производительность в 10к файлов за 2 секунды — это не маркетинговая уловка. Это следствие специализированной архитектуры, которая не пытается решать все задачи сразу, а фокусируется на одной: дать AI-агенту память о вашем коде.

Начните с малого. Проиндексируйте один проект. Подключите к Claude Code через MCP. Спросите что-то, что раньше требовало 10 минут объяснений. Если агент ответит правильно с первого раза — вы поймете, зачем это нужно.

А если нет... ну, всегда можно вернуться к старой доброй практике: «Смотри, вот здесь у нас контроллер, а здесь сервисный слой, и не путай их, пожалуйста». Снова и снова.