Swarmcore: мульти-агентный фреймворк на Python для локальных моделей | AiManual
AiManual Logo Ai / Manual.
11 Фев 2026 Инструмент

Swarmcore: ваш домашний Deep Research без подписки на Google

Создавайте сложные агентские цепочки на локальных LLM с помощью Swarmcore. Аналог Gemini Deep Research без облаков.

Забудьте про API-лимиты и цензуру

Представьте: вам нужно проанализировать 50 PDF-файлов, вытащить из них ключевые тезисы, сравнить с законодательной базой и написать отчет. Gemini Deep Research сделает это за $20 в месяц. Swarmcore - за 0 рублей и на вашем железе. Звучит как утопия? На 11 февраля 2026 года это уже реальность.

Swarmcore - минималистичный Python-фреймворк, который превращает любую локальную LLM в оркестр специализированных агентов. Никаких сложных конфигураций, никаких JSON-схем. Только чистый Python и операторы >> (последовательность) и | (параллельность).

Актуальность на 11.02.2026: Swarmcore поддерживает все современные модели Ollama, включая Qwen2.5-32B-Instruct, Llama 3.3-70B-Instruct и новейшие CodeGeeX-4. Все примеры используют актуальный API версии 0.5.0.

Как это работает? Пять строк кода вместо пяти часов настройки

Основная идея Swarmcore - декларативное описание workflow. Хотите, чтобы один агент писал код, второй - проверял его, третий - писал документацию? Вот как это выглядит:

from swarmcore import Agent, Workflow

# Определяем агентов с их ролями
coder = Agent("Senior Python Developer", model="qwen2.5-coder:7b")
reviewer = Agent("Code Reviewer", model="llama3.3:8b")
docs_writer = Agent("Technical Writer", model="gemma2:9b")

# Создаем workflow: код -> ревью -> документация
workflow = coder >> reviewer >> docs_writer
result = workflow.run("Напиши FastAPI endpoint для загрузки файлов")

Видите этот оператор >>? Он означает "передай результат следующему агенту". Все. Никаких callback-функций, никаких промежуточных хранилищ. Swarmcore сам управляет контекстом, историей сообщений и токенами.

💡
Если вы уже пробовали собирать агентские системы вручную и сталкивались с "вечными циклами" или потерей контекста, как описывалось в статье про локальные агентные AI, Swarmcore решает эти проблемы на уровне фреймворка.

Параллельные агенты: когда время дороже VRAM

Иногда нужно не последовательно, а параллельно. Допустим, вы анализируете стартап и хотите одновременно оценить его технологический стек, бизнес-модель и рыночные перспективы:

tech_analyst = Agent("Tech Analyst", model="deepseek-coder:7b")
business_analyst = Agent("Business Analyst", model="qwen2.5:14b")
market_analyst = Agent("Market Analyst", model="llama3.1:8b")

# Все три агента работают параллельно
parallel_research = tech_analyst | business_analyst | market_analyst
results = parallel_research.run("Проанализируй стартап в области квантовых вычислений")

# results теперь содержит три ответа
for agent_name, response in results.items():
    print(f"{agent_name}: {response[:100]}...")

Оператор | запускает агентов одновременно. Это особенно полезно, когда у вас несколько GPU или вы используете небольшие модели, как в случае с AgentCPM-Explore на 4B параметров.

Чем Swarmcore отличается от CrewAI, Autogen и других монстров?

ФреймворкСложностьЛокальные моделиКод для базового workflow
SwarmcoreМинимальнаяРодная поддержка5 строк
CrewAIВысокаяЧерез костыли50+ строк
AutogenЗапредельнаяТеоретически100+ строк
LangGraphСредняяСложная настройка30+ строк

Проблема большинства фреймворков в 2026 году - они создавались для OpenAI API и лишь потом "прикрутили" поддержку локальных моделей. Swarmcore с самого начала заточен под Ollama, vLLM и другие локальные инференс-движки.

Если вы читали сравнение Opencode и Claude Code, то понимаете: архитектурные решения определяют, будет ли система летать или еле ползать. Swarmcore выбирает скорость, а не красоту.

Реальный кейс: Research Assistant за 10 минут

Допустим, вы пишете статью про новые архитектуры LLM и хотите собрать информацию из разных источников. Вот полный код агентской системы:

from swarmcore import Agent, Workflow
import asyncio

# Определяем специализированных агентов
web_searcher = Agent("Web Researcher", model="qwen2.5:14b")
paper_analyzer = Agent("Academic Paper Analyst", model="llama3.3:70b")
summarizer = Agent("Summarizer", model="gemma2:9b")
editor = Agent("Editor", model="claude-3.5-sonnet")  # Да, можно и облачные модели!

# Создаем сложный workflow
research_flow = (
    (web_searcher | paper_analyzer)  # Параллельный поиск в интернете и академических базах
    >> summarizer                     # Объединение и суммаризация
    >> editor                         # Финальная редактура
)

async def main():
    result = await research_flow.arun(
        "Собери информацию о Mixture of Experts архитектурах в LLM за 2024-2025 годы"
    )
    print(result)

asyncio.run(main())

Обратите внимание на смешанное использование: параллельные агенты (|) передают результаты суммаризатору, который передает редактору. И да, вы можете комбинировать локальные и облачные модели в одном workflow - Swarmcore абстрагирует это через единый интерфейс.

Важный нюанс: Swarmcore 0.5.0 автоматически управляет контекстом для каждого агента. Если агент получает слишком длинный промпт, фреймворк сам его обрезает, сохраняя наиболее релевантные части. Больше не нужно вручную считать токены.

Установка и первые шаги

Версия на 11.02.2026 устанавливается одной командой:

pip install swarmcore==0.5.0

Предварительно нужно запустить Ollama с нужными моделями:

ollama pull qwen2.5:14b
ollama pull llama3.3:8b
ollama pull gemma2:9b

Если у вас нет мощного железа, но хочется поиграться с мульти-агентами, прочитайте руководство по выбору моделей для локальных агентов. Там есть конкретные цифры по VRAM для разных сценариев.

Когда Swarmcore не подойдет?

Что в итоге?

Swarmcore - это ответ на вопрос "как быстро собрать прототип мульти-агентной системы, не разбираясь в тонкостях каждого фреймворка". Если вам нужно за час создать исследовательского ассистента, код-ревьюера или аналитический пайплайн - это ваш выбор.

Но помните главное: качество работы агентов на 90% определяется качеством моделей, а не фреймворка. Можно собрать идеальный workflow на Swarmcore, но если под капотом слабая модель - результат будет соответствующим. Как отмечалось в анализе агентных workflow, даже Google признает, что для автономных агентов нужны специально обученные модели.

Попробуйте Swarmcore сегодня. Установите, создайте простой workflow из двух агентов и посмотрите, как локальные LLM могут работать в команде. Возможно, вы обнаружите, что ваш домашний Deep Research уже в кармане - вернее, в терминале.