LocalAgent v0.1.1 - локальный AI агент с LM Studio, Ollama, MCP | AiManual
AiManual Logo Ai / Manual.
21 Фев 2026 Инструмент

LocalAgent v0.1.1: локальный агент, который умеет всё, но не требует денег

Обзор LocalAgent v0.1.1: локальный агент с поддержкой LM Studio, Ollama, llama.cpp и Playwright MCP для автоматизации браузера

Когда Claude просит $120, а у вас есть 8 ГБ оперативки

В феврале 2026 года счет за Claude Code выглядит как шутка. $120 за месяц. За код, который вы могли бы написать сами. Или который мог бы написать ваш компьютер, если бы вы его правильно настроили.

LocalAgent v0.1.1 - это тот самый "правильный настрой". Не очередной чат-интерфейс, а полноценный агент. Тот, который не просто болтает, а делает. Редактирует файлы, гуляет по интернету, кликает по кнопкам. И всё это - без облачных API, без ежемесячных платежей, без отправки ваших данных куда-то в дата-центр.

Важно: на 21.02.2026 LocalAgent находится в ранней стадии разработки (v0.1.1). Это значит, что некоторые функции могут работать нестабильно, а документация иногда отстаёт от реальности. Но это же open-source - можно заглянуть в код и понять, что происходит.

Что умеет этот маленький монстр?

LocalAgent построен на простой, но мощной идее: взять любую локальную LLM с поддержкой tool calling и дать ей доступ к реальному миру. Не через сложные API, а через стандартный Model Context Protocol (MCP).

💡
MCP (Model Context Protocol) - это стандарт от Anthropic для подключения внешних инструментов к LLM. Если вы уже знакомы с интеграцией MCP в llama.cpp, то LocalAgent покажется вам знакомым, но с более широкой поддержкой бэкендов.

Поддерживаемые бэкенды на февраль 2026:

  • LM Studio - самый популярный GUI для локальных моделей
  • Ollama - простой способ запускать модели через CLI
  • llama.cpp server - для тех, кто любит всё настраивать руками
  • Прямое подключение к MCP-серверам - если у вас уже есть настроенная инфраструктура

А вот инструменты, которые доступны "из коробки":

ИнструментЧто делаетОсобенность
Playwright MCPАвтоматизация браузераКлики, заполнение форм, скриншоты
Файловая системаРабота с файламиЧтение, запись, поиск
Командная строкаВыполнение командОграниченный доступ для безопасности

Установка: проще, чем кажется

LocalAgent написан на Rust, что значит две вещи: он быстрый и устанавливается одной командой. Если у вас есть cargo (а он должен быть, если вы работаете с локальными LLM), то:

cargo install localagent

В теории. На практике в феврале 2026 года могут быть нюансы с зависимостями. Особенно с Playwright - этот инструмент требует установки браузеров, и иногда процесс идёт не так гладко, как хотелось бы.

После установки создайте конфигурационный файл:

localagent init

Это создаст localagent.toml в текущей директории. Откройте его - там всё достаточно понятно, даже если вы впервые видите TOML.

Настройка: выбираем оружие

Здесь начинается самое интересное. LocalAgent не привязан к конкретной модели. Вы можете использовать любую LLM, которая умеет в tool calling. На февраль 2026 года это:

  • Qwen2.5-Coder-32B-Instruct (мой фаворит для кодинга)
  • DeepSeek-Coder-V2-Lite-Instruct (хороший баланс качества и размера)
  • Llama 3.2 Coder Instruct (если у вас много видеопамяти)
  • Phi-4 (для слабых машин)

Важный момент: не все модели одинаково хорошо работают с tool calling. Некоторые "забывают" вызывать инструменты, другие неправильно парсят ответы. Qwen2.5-Coder на февраль 2026 года показывает лучшие результаты в моих тестах.

В конфигурации указываем бэкенд:

[backend]
type = "ollama"  # или "lmstudio", "llamacpp"
url = "http://localhost:11434"
model = "qwen2.5-coder:32b"

А вот с MCP-серверами есть хитрость. LocalAgent поддерживает два типа подключения:

  1. Встроенные серверы - те, что идут в комплекте (пока только Playwright)
  2. Внешние серверы - любые MCP-совместимые серверы

Для Playwright нужно установить браузеры:

playwright install chromium

И добавить в конфиг:

[[mcp_servers]]
type = "playwright"
enabled = true

Запускаем первый сценарий

Допустим, вы хотите, чтобы агент зашёл на GitHub, нашёл репозиторий с определённым названием и сохранил описание. Звучит как задача для junior-разработчика, но мы делегируем её компьютеру.

Создаём файл task.md:

Задача: найти на GitHub репозиторий "localagent" и сохранить его описание в файл result.txt

Инструкции:
1. Открыть браузер
2. Перейти на github.com
3. В поиске ввести "localagent"
4. Открыть первый результат
5. Скопировать описание репозитория
6. Сохранить в result.txt

Запускаем:

localagent run --task-file task.md

И наблюдаем магию. Браузер открывается сам (в headless-режиме, если не указано иное), курсор движется по экрану, поля заполняются. Выглядит так, будто за компьютером сидит призрак.

⚠️
На февраль 2026 года Playwright MCP в LocalAgent работает, но не всегда стабильно. Иногда браузер "зависает", иногда не находит элементы на странице. Разработчики обещают улучшения в следующих версиях.

Чем LocalAgent отличается от других агентов?

Вы наверняка слышали про PocketCoder или про продвинутые приложения для локальных LLM. У каждого инструмента свой фокус.

ИнструментФокусПлюсы LocalAgent
PocketCoderКодинг и работа с файламиАвтоматизация браузера через Playwright
LM Studio с MCPГрафический интерфейсCLI-интерфейс, проще автоматизировать
llama.cpp с MCPМинимализм и скоростьПоддержка нескольких бэкендов

Главное преимущество LocalAgent - его универсальность. Один инструмент, несколько бэкендов, возможность добавлять любые MCP-серверы. Хотите подключить базу данных? Найдите MCP-сервер для PostgreSQL. Нужна работа с Google Sheets? Есть и такой сервер.

Проблемы, с которыми вы столкнётесь

Не буду вас обманывать - LocalAgent v0.1.1 не идеален. Вот что бесит лично меня:

  • Документация отстаёт. Примеры в README иногда не работают, потому что API уже поменялся
  • Playwright тормозит. Особенно на больших страницах. Иногда кажется, что проще написать скрипт самому
  • Нет поддержки мультиагентности. Один агент - одна задача. Хотите параллелить? Запускайте несколько экземпляров
  • Ошибки не всегда понятны. "Failed to connect to backend" - это что? Модель не загружена? Сервер упал? Порт занят?

Но есть и хорошие новости. Разработка идёт быстро. На GitHub уже есть issues с этими проблемами, и некоторые уже исправлены в master-ветке.

Кому подойдёт LocalAgent?

Этот инструмент - не для всех. Если вы хотите просто пообщаться с локальной моделью, используйте LM Studio или llama.cpp. Если нужен кодовый агент - есть специализированные решения.

LocalAgent для тех, кто:

  • Автоматизирует рутинные задачи в браузере. Заполнение форм, сбор данных, тестирование интерфейсов
  • Экспериментирует с MCP. Хочет понять, как работает этот протокол на практике
  • Не боится ранних версий. Готов копаться в конфигах, читать исходный код, сообщать о багах
  • Ценит универсальность. Один инструмент вместо трёх разных

Идеальный use case: у вас есть список из 100 сайтов, и нужно на каждом выполнить однотипное действие (например, проверить наличие определённого текста). Вместо того чтобы делать это вручную или писать сложный скрипт на Python, вы описываете задачу на естественном языке и запускаете LocalAgent.

Что будет дальше?

На февраль 2026 года roadmap проекта выглядит амбициозно:

  1. Поддержка большего количества MCP-серверов "из коробки"
  2. Улучшение стабильности Playwright-интеграции
  3. Добавление веб-интерфейса для мониторинга задач
  4. Поддержка цепочек задач (один агент передаёт результат другому)

Если разработчики реализуют хотя бы половину из этого, LocalAgent может стать стандартом де-факто для локальной автоматизации. Потому что альтернатив-то особо нет. Есть тяжёлые фреймворки вроде AutoGPT, есть простые чат-интерфейсы, а вот такого баланса между мощностью и простотой - не так много.

Мой совет: установите LocalAgent сегодня, даже если не планируете активно использовать. Поиграйтесь с примерами из документации. Потому что через полгода, когда выйдет v1.0, все будут говорить об этом инструменте. А вы уже будете знать, как он работает изнутри.

И помните: каждый доллар, который вы не заплатили Anthropic за Claude Code - это доллар, который можно потратить на что-то более интересное. Например, на видеокарту помощнее для запуска более крупных моделей.