Когда фреймворки перегружены, а скрипты — хаос
Попробуйте собрать локального ИИ-агента на Python в 2026 году. Вариантов много: LangChain (тяжелый, как танк), LlamaIndex (специализированный), автономные скрипты (которые через неделю превращаются в спагетти). Или вы пишете свой велосипед — тот самый, который ломается при первом добавлении памяти или многозадачности.
MRS-Core появился как ответ на эту проблему. Не фреймворк, не мега-библиотека, а минимальный reasoning слой. Всего 500 строк чистого Python, которые превращают вашу локальную LLM (Ollama, LM Studio, даже OpenAI-совместимые API) в персистентного агента с памятью, целями и способностью к последовательным действиям.
Актуальность на февраль 2026: MRS-Core v0.3.2 поддерживает последние модели через Ollama API (включая Llama 3.3 70B, Qwen2.5 72B, DeepSeek Coder 33B) и совместим с LM Studio v0.3.9. Работает с любыми OpenAI-совместимыми эндпоинтами.
Что умеет эта штука на самом деле
MRS расшифровывается как Minimal Reasoning System. Ядро библиотеки — три компонента:
- Persistent Agent: Агент, который сохраняет состояние между запусками. Завершили скрипт? Он запомнит, на чем остановился.
- Goal-Oriented Workflow: Задаете цель («проанализируй этот код», «напиши документацию»), агент разбивает ее на шаги и выполняет.
- Memory Context: Автоматическое управление контекстом. Не нужно вручную обрезать историю диалога — библиотека сама решает, что сохранить.
Самое интересное — MRS-Core не пытается сделать всё. Нет встроенных RAG, нет сложных цепочек инструментов. Только reasoning: планирование, выполнение, сохранение состояния. Для всего остального подключаете свои библиотеки.
Установка и первый агент за 3 минуты
Ставится одной командой:
pip install mrs-core
Предполагается, что у вас уже запущен Ollama (с моделью типа llama3.2:1b) или LM Studio с включенным OpenAI-совместимым API. Вот минимальный рабочий пример:
from mrs_core import Agent, Goal
# Создаем агента с локальной LLM
agent = Agent(
model="ollama/llama3.2:1b", # или "lm-studio" для LM Studio
api_base="http://localhost:11434", # стандартный порт Ollama
persist_dir="./agent_memory" # куда сохранять состояние
)
# Задаем цель
goal = Goal(
description="Проанализируй код из файла main.py и предложи улучшения",
max_steps=5 # лимит шагов reasoning
)
# Запускаем
result = agent.execute(goal)
print(f"Результат: {result.summary}")
print(f"Потрачено шагов: {result.steps_used}")
Агент сам разобьет цель на шаги, выполнит их, сохранит контекст. При повторном запуске с той же директорией persist_dir он продолжит с того места, где остановился.
Чем MRS-Core отличается от альтернатив
В мире локальных агентов сейчас три лагеря:
| Инструмент | Философия | Когда выбирать |
|---|---|---|
| MRS-Core | Минимальный reasoning слой. Только планирование+выполнение+память. | Хотите контроль над архитектурой. Собираете агента под специфичную задачу. |
| LangChain/LlamaIndex | Полнофункциональные фреймворки со всем включенным. | Нужны готовые RAG, инструменты, шаблоны. Готовы к overhead. |
| Самописные скрипты | Полный контроль, но нулевая структура. | Одноразовые задачи. Нет требований к персистентности. |
| Coreness | YAML-конфигурации для массового развертывания. | Запускаете десятки однотипных ботов. Приоритет — декларативность. |
Главное преимущество MRS-Core — его можно встроить в существующий проект, не переписывая всё. Нужен reasoning для вашего RLM-агента? Подключили как модуль.
Предупреждение: MRS-Core не включает инструменты для работы с файлами, веб-поиска и т.д. Это сознательное решение — вы подключаете свои функции через callback. Если ждете готовых инструментов как в LangChain, это не ваш выбор.
Реальные сценарии: где эта библиотека не подводит
1. Локальный код-ревьюер: Агент анализирует пул-реквесты, сохраняя контекст между сессиями. Подключаете его к Git хукам.
2. Долгосрочные исследовательские задачи: Например, анализ крипторынка (как в нашей статье про рассуждающие LLM в криптоаналитике). Агент работает днями, постепенно накапливая выводы.
3. Персональный ассистент с памятью: Запускаете на домашнем сервере с Llama 3.1 8B. Помнит ваши предпочтения, планы, историю взаимодействий.
Ключевое — персистентность. Обычный скрипт забывает всё после завершения. MRS-Core агент — нет. Это особенно важно для задач, где контекст накапливается неделями.
Под капотом: как работает reasoning слой
Архитектура напоминает упрощенный вариант субъектного подхода. LLM здесь — не «мозг», а «исполнитель», получающий инструкции от reasoning-движка.
Процесс выглядит так:
- Планирование: Goal разбивается на последовательные подзадачи.
- Контекстуализация: К каждой подзадаче добавляется релевантная история из памяти.
- Исполнение: LLM получает конкретную инструкцию, выполняет, возвращает результат.
- Сохранение: Результат и метаданные сохраняются в persist_dir.
Этот цикл повторяется до достижения цели или исчерпания max_steps. Важно: reasoning логика реализована на Python, а не делегирована LLM. Это снижает «галлюцинации» в планировании.
Кому подойдет MRS-Core в 2026 году
Библиотека — нишевый инструмент для конкретной аудитории:
- Разработчики локальных AI-приложений, которые устали от перегруженных фреймворков.
- Исследователи, экспериментирующие с архитектурой агентов (например, с System 2 reasoning).
- Энтузиасты приватности, которые не хотят отправлять данные в облака (Ollama + MRS-Core = полная локальность).
- Те, кому надоело писать один и тот же boilerplate для управления состоянием агентов.
Не подойдет, если вам нужны готовые шаблоны, GUI или массовое развертывание «из коробки». И да, для простых задач (один запрос к LLM) MRS-Core — избыточен. Используйте прямое обращение к API.
Ограничения и подводные камни
Библиотека молодая (v0.3.2). Нет гарантий обратной совместимости. Документация скудная — приходится читать исходники.
Самая частая проблема — качество reasoning сильно зависит от модели. Llama 3.2 1B будет делать глупые планы. Берите хотя бы 7B-версии, а лучше — 70B на RTX 5090, если задача сложная.
И последнее: MRS-Core не волшебная таблетка. Он дает структуру, но не интеллект. Если ваша LLM плохо справляется с задачей, reasoning слой это не исправит. Он только организует процесс.
Попробуйте на небольшой задаче. Установите, запустите пример. Если почувствуете, что этот минимализм — ваше, углубляйтесь. Если нет — всегда есть тяжеловесы вроде LangChain. Выбор инструмента в 2026 году определяет не только задачу, но и ваше терпение к сложности.