Зачем вообще локальный агент? Три причины, о которых молчат
Представьте: вы просите AI найти что-то в ваших документах. Он это делает. А потом ваши поисковые запросы всплывают в рекламе. Знакомо? Вот и мне надоело.
Локальные агенты в 2026 году - это не про "круто, потому что можно". Это про три вещи:
- Приватность как физический закон. Ваши данные не покидают ваш Mac. Никогда. Как в статье про Physiclaw - только железо и вы.
- Скорость без лимитов. Нет квот на запросы. Нет "подождите, у нас нагрузка". Модель работает столько, сколько нужно.
- Интеграция на уровне системы. Агент видит ваши файлы, браузер, терминал. Не через API, а напрямую.
Внимание: GPT-OSS 20B требует минимум 32GB RAM на Mac. На M4 с 16GB будет работать, но с подкачкой. На M5 - идеально. Если у вас старый Intel Mac - даже не пытайтесь.
Zeroclaw: не просто агент, а Swiss Army knife
Zeroclaw вышел в конце 2025 и сразу стал стандартом. Почему? Он не пытается быть всем для всех. Он делает три вещи, но делает их отлично:
| Инструмент | Что умеет | Ограничения |
|---|---|---|
| Файловая система | Чтение, запись, поиск по содержимому | Только разрешенные папки |
| Браузер (через Puppeteer) | Открыть страницу, кликнуть, заполнить форму | JavaScript-heavy сайты могут тормозить |
| Shell команды | Выполнить, проверить вывод | Только безопасные команды |
Концептуально Zeroclaw похож на Open Cowork, но без GUI и с упором на автоматизацию. Если вам нужен интерфейс - смотрите в сторону Open Cowork. Если нужен headless агент для скриптов - Zeroclaw ваш выбор.
1 Установка: минута на Brew, час на настройку
Начнем с простого:
brew install zeroclaw/tap/zeroclaw
Вот и все. Серьезно. Разработчики сделали нормальный пакет для Homebrew, не нужно собирать из исходников.
2 Модель: качать или использовать свою?
Zeroclaw по умолчанию использует GPT-OSS 20B - самую сбалансированную модель для Mac по состоянию на февраль 2026. Почему именно она?
В сравнении с другими моделями GPT-OSS 20B показывает лучший баланс между качеством ответов и потреблением памяти. Gemma 4B быстрее, но тупее. Более крупные модели (40B+) требуют специализированного железа.
# Скачать модель (примерно 12GB)
zeroclaw download-model gpt-oss-20b-q4_K_M.gguf
Параметр q4_K_M - это квантование. На Mac M4/M5 используйте именно его. Более агрессивное квантование (q3_K_S) сэкономит память, но ухудшит качество.
Не используйте старые версии модели! На февраль 2026 актуальна GPT-OSS 20B v2.1. Первая версия (v1.0) имела проблемы с пониманием контекста в длинных диалогах.
3 Конфиг: где безопасность, а где удобство
Вот конфигурационный файл, который работает. Я разберу его по косточкам:
# ~/.config/zeroclaw/config.yaml
model:
path: "~/models/gpt-oss-20b-q4_K_M.gguf"
context_size: 8192 # Больше не нужно, модель оптимизирована
tools:
filesystem:
allowed_paths:
- "~/Documents"
- "~/Projects"
- "/tmp"
deny_patterns:
- "*.key"
- "*.pem"
- "*.env"
browser:
headless: true
timeout: 30000 # 30 секунд на загрузку страницы
sandbox: true # Критически важно для безопасности
shell:
allowed_commands:
- "ls"
- "cat"
- "grep"
- "find"
- "python3"
- "node"
deny_commands:
- "rm"
- "sudo"
- "chmod"
- "dd"
agent:
max_steps: 20 # Ограничиваем цепочку размышлений
temperature: 0.3 # Более детерминированные ответы
Ключевые моменты:
- allowed_paths: никогда не давайте доступ ко всей файловой системе. Выделите конкретные папки. Хак через симлинк? Модель его не поймет, но система - да.
- sandbox: true: без этого браузерный инструмент опасен. Sandbox изолирует процессы. Если сайт попытается что-то скачать - не получится.
- deny_commands: rm, sudo, chmod - в черном списке всегда. Даже если модель "уверена", что нужно удалить временные файлы.
4 Первый запуск: от простого к сложному
Не начинайте со сложных задач. Проверьте базовые сценарии:
# Простейший запрос
zeroclaw run "Найди все PDF файлы в ~/Documents"
Агент должен:
- Понять, что нужен инструмент filesystem
- Выполнить поиск по разрешенным путям
- Вернуть список файлов
Если работает - усложняем:
# Комбинированный запрос
zeroclaw run "Найди в ~/Projects файлы с ошибками, прочитай их и предложи исправления"
Здесь агент использует цепочку: filesystem → shell (grep) → анализ содержимого.
Типичные ошибки и как их избежать
Я видел десятки неудачных настройк. Вот топ-3 проблемы:
Ошибка 1: Модель "галлюцинирует" команды
Ситуация: вы просите найти что-то, а модель пытается выполнить `find / -name "*.txt"`, хотя доступ только к ~/Documents.
Причина: контекст слишком короткий. Модель не помнит ограничений.
Решение: в промпте явно указывать ограничения:
# Неправильно
zeroclaw run "Найди конфиг nginx"
# Правильно
zeroclaw run "Используя доступ только к ~/Projects, найди файлы с именем nginx.conf"
Ошибка 2: Браузер зависает на JavaScript-сайтах
Современные сайты (React, Vue) требуют времени для рендеринга. По умолчанию таймаут 30 секунд, но некоторым SPAs нужно больше.
Решение из статьи про Browser Sandbox: добавить ожидание загрузки:
browser:
wait_for_network_idle: true # Ждем завершения сетевых запросов
wait_for_selector: "body" # Ждем появления селектора
timeout: 60000 # Увеличиваем таймаут для сложных сайтов
Ошибка 3: Shell команды выполняются, но вывод не анализируется
GPT-OSS 20B иногда "пропускает" вывод команд, особенно если он большой. Модель видит текст, но не обрабатывает его.
Решение: разбивать сложные задачи на части:
# Неправильно - слишком сложно
zeroclaw run "Проанализируй логи приложения и найди ошибки"
# Правильно - поэтапно
zeroclaw run "Найди файлы логов в ~/Projects/app/logs"
# Потом
zeroclaw run "Прочитай последний лог-файл и найди строки с ERROR"
# Потом
zeroclaw run "Сгруппируй ошибки по типу и посчитай количество"
Производительность: что реально, а что маркетинг
На Mac M4 с 32GB RAM:
- Загрузка модели: 8-12 секунд (зависит от SSD)
- Первый токен: 200-400 мс
- Скорость генерации: 15-25 токенов/сек
- Потребление памяти: ~24GB (модель + контекст)
На Mac M3 с 16GB будет подкачка на SSD. Скорость упадет в 3-5 раз. Если нужна производительность - апгрейд железа неизбежен.
Интеграция с другими инструментами
Zeroclaw - не остров. Его можно связать с:
- Obsidian: как в статье про замену Gemini CLI, но с большим контролем
- Automator: создавайте workflow, где Zeroclaw анализирует документы, а Automator выполняет действия
- Свои скрипты: Zeroclaw имеет JSON API для интеграции
Пример простого скрипта:
#!/usr/bin/env python3
import subprocess
import json
def ask_zeroclaw(question):
result = subprocess.run(
['zeroclaw', 'run', '--json', question],
capture_output=True,
text=True
)
return json.loads(result.stdout)
# Использование
response = ask_zeroclaw("Проверь есть ли новые коммиты в ~/Projects/myapp")
if response['action'] == 'shell_execute':
print(f"Команда: {response['command']}")
print(f"Результат: {response['output'][:200]}...")
Будущее локальных агентов: 2026 и дальше
Тренды, которые я вижу:
- Специализированные модели: не одна GPT-OSS на все случаи, а набор моделей - для кода, для документов, для браузера. Как в PocketCoder, но универсальнее.
- Аппаратное ускорение: Neural Engine на Apple Silicon будет использоваться эффективнее. Сейчас он почти не задействован.
- Распределенные агенты: один агент на Mac, другой на домашнем сервере с GPU, обмениваются задачами.
Самая большая проблема сейчас - не качество моделей, а их "понимание" ограничений. Модель знает, что не должна удалять файлы, но в цепочке рассуждений может решить, что "очистка временных файлов" требует rm. Исправление этой логики - главная задача разработчиков.
Не верьте хайпу про "полную автономию". Локальный агент в 2026 году - это мощный инструмент с ограничениями. Он не заменит человека, но освободит от рутины. Если нужен аналог Claude Code - смотрите статью про замену облака.
Начните с простого: настройте доступ к документам, попробуйте найти информацию. Потом добавьте браузер для проверки сайтов. Через неделю вы поймете, какие задачи действительно можно автоматизировать, а какие требуют человеческого внимания.
И помните: лучшая настройка - та, которую вы понимаете. Не копируйте конфиги слепо. Каждая строка в allowed_paths или deny_commands должна быть осознанным решением. Приватность начинается с контроля.