MRS-Core: обзор Python-библиотеки для локальных AI-агентов | 2026 | AiManual
AiManual Logo Ai / Manual.
03 Фев 2026 Инструмент

MRS-Core: минимальный слой логики для локальных ИИ-агентов

Обзор MRS-Core — минимального reasoning слоя для сборки персистентных локальных ИИ-агентов с Ollama и LM Studio. Установка, примеры, сравнения.

Когда фреймворки перегружены, а скрипты — хаос

Попробуйте собрать локального ИИ-агента на Python в 2026 году. Вариантов много: LangChain (тяжелый, как танк), LlamaIndex (специализированный), автономные скрипты (которые через неделю превращаются в спагетти). Или вы пишете свой велосипед — тот самый, который ломается при первом добавлении памяти или многозадачности.

MRS-Core появился как ответ на эту проблему. Не фреймворк, не мега-библиотека, а минимальный reasoning слой. Всего 500 строк чистого Python, которые превращают вашу локальную LLM (Ollama, LM Studio, даже OpenAI-совместимые API) в персистентного агента с памятью, целями и способностью к последовательным действиям.

Актуальность на февраль 2026: MRS-Core v0.3.2 поддерживает последние модели через Ollama API (включая Llama 3.3 70B, Qwen2.5 72B, DeepSeek Coder 33B) и совместим с LM Studio v0.3.9. Работает с любыми OpenAI-совместимыми эндпоинтами.

Что умеет эта штука на самом деле

MRS расшифровывается как Minimal Reasoning System. Ядро библиотеки — три компонента:

  • Persistent Agent: Агент, который сохраняет состояние между запусками. Завершили скрипт? Он запомнит, на чем остановился.
  • Goal-Oriented Workflow: Задаете цель («проанализируй этот код», «напиши документацию»), агент разбивает ее на шаги и выполняет.
  • Memory Context: Автоматическое управление контекстом. Не нужно вручную обрезать историю диалога — библиотека сама решает, что сохранить.

Самое интересное — MRS-Core не пытается сделать всё. Нет встроенных RAG, нет сложных цепочек инструментов. Только reasoning: планирование, выполнение, сохранение состояния. Для всего остального подключаете свои библиотеки.

💡
Если вам нужен полноценный Agentic RAG локально, MRS-Core станет отличным reasoning-слоем поверх вашей векторной базы.

Установка и первый агент за 3 минуты

Ставится одной командой:

pip install mrs-core


Предполагается, что у вас уже запущен Ollama (с моделью типа llama3.2:1b) или LM Studio с включенным OpenAI-совместимым API. Вот минимальный рабочий пример:

from mrs_core import Agent, Goal

# Создаем агента с локальной LLM
agent = Agent(
    model="ollama/llama3.2:1b",  # или "lm-studio" для LM Studio
    api_base="http://localhost:11434",  # стандартный порт Ollama
    persist_dir="./agent_memory"  # куда сохранять состояние
)

# Задаем цель
goal = Goal(
    description="Проанализируй код из файла main.py и предложи улучшения",
    max_steps=5  # лимит шагов reasoning
)

# Запускаем
result = agent.execute(goal)
print(f"Результат: {result.summary}")
print(f"Потрачено шагов: {result.steps_used}")


Агент сам разобьет цель на шаги, выполнит их, сохранит контекст. При повторном запуске с той же директорией persist_dir он продолжит с того места, где остановился.

Чем MRS-Core отличается от альтернатив

В мире локальных агентов сейчас три лагеря:

Инструмент Философия Когда выбирать
MRS-Core Минимальный reasoning слой. Только планирование+выполнение+память. Хотите контроль над архитектурой. Собираете агента под специфичную задачу.
LangChain/LlamaIndex Полнофункциональные фреймворки со всем включенным. Нужны готовые RAG, инструменты, шаблоны. Готовы к overhead.
Самописные скрипты Полный контроль, но нулевая структура. Одноразовые задачи. Нет требований к персистентности.
Coreness YAML-конфигурации для массового развертывания. Запускаете десятки однотипных ботов. Приоритет — декларативность.

Главное преимущество MRS-Core — его можно встроить в существующий проект, не переписывая всё. Нужен reasoning для вашего RLM-агента? Подключили как модуль.

Предупреждение: MRS-Core не включает инструменты для работы с файлами, веб-поиска и т.д. Это сознательное решение — вы подключаете свои функции через callback. Если ждете готовых инструментов как в LangChain, это не ваш выбор.

Реальные сценарии: где эта библиотека не подводит

1. Локальный код-ревьюер: Агент анализирует пул-реквесты, сохраняя контекст между сессиями. Подключаете его к Git хукам.

2. Долгосрочные исследовательские задачи: Например, анализ крипторынка (как в нашей статье про рассуждающие LLM в криптоаналитике). Агент работает днями, постепенно накапливая выводы.

3. Персональный ассистент с памятью: Запускаете на домашнем сервере с Llama 3.1 8B. Помнит ваши предпочтения, планы, историю взаимодействий.

Ключевое — персистентность. Обычный скрипт забывает всё после завершения. MRS-Core агент — нет. Это особенно важно для задач, где контекст накапливается неделями.

Под капотом: как работает reasoning слой

Архитектура напоминает упрощенный вариант субъектного подхода. LLM здесь — не «мозг», а «исполнитель», получающий инструкции от reasoning-движка.

Процесс выглядит так:

  1. Планирование: Goal разбивается на последовательные подзадачи.
  2. Контекстуализация: К каждой подзадаче добавляется релевантная история из памяти.
  3. Исполнение: LLM получает конкретную инструкцию, выполняет, возвращает результат.
  4. Сохранение: Результат и метаданные сохраняются в persist_dir.

Этот цикл повторяется до достижения цели или исчерпания max_steps. Важно: reasoning логика реализована на Python, а не делегирована LLM. Это снижает «галлюцинации» в планировании.

Кому подойдет MRS-Core в 2026 году

Библиотека — нишевый инструмент для конкретной аудитории:

  • Разработчики локальных AI-приложений, которые устали от перегруженных фреймворков.
  • Исследователи, экспериментирующие с архитектурой агентов (например, с System 2 reasoning).
  • Энтузиасты приватности, которые не хотят отправлять данные в облака (Ollama + MRS-Core = полная локальность).
  • Те, кому надоело писать один и тот же boilerplate для управления состоянием агентов.

Не подойдет, если вам нужны готовые шаблоны, GUI или массовое развертывание «из коробки». И да, для простых задач (один запрос к LLM) MRS-Core — избыточен. Используйте прямое обращение к API.

Ограничения и подводные камни

Библиотека молодая (v0.3.2). Нет гарантий обратной совместимости. Документация скудная — приходится читать исходники.

Самая частая проблема — качество reasoning сильно зависит от модели. Llama 3.2 1B будет делать глупые планы. Берите хотя бы 7B-версии, а лучше — 70B на RTX 5090, если задача сложная.

И последнее: MRS-Core не волшебная таблетка. Он дает структуру, но не интеллект. Если ваша LLM плохо справляется с задачей, reasoning слой это не исправит. Он только организует процесс.

Попробуйте на небольшой задаче. Установите, запустите пример. Если почувствуете, что этот минимализм — ваше, углубляйтесь. Если нет — всегда есть тяжеловесы вроде LangChain. Выбор инструмента в 2026 году определяет не только задачу, но и ваше терпение к сложности.