Когда облака — это дыра в заборе
Представьте, что ваш AI-агент каждые пять секунд шепчет на ухо OpenAI или Anthropic детали вашего финансового отчета или патентной заявки. Неудобно? В 2026 году это уже не паранойя, а стандартный compliance-кошмар. Physiclaw — это ответный удар по облачной зависимости.
Этот форк взял популярную архитектуру агента и вырвал из нее все, что связано с внешним миром. Телеметрия? Удалена. Облачные API? Заменены на локальные эндпоинты. Остался только чистый код, который работает там, где вам нужно — в изолированной сети, на сервере без интернета, на ноутбуке в самолете.
Важно: на момент 16 февраля 2026 года актуальная ветка Physiclaw — v2.4.1. Все, что ниже v2.4, не поддерживает новейшие оптимизации vLLM 0.5.7 и имеет уязвимости в системе контекстного менеджмента.
Что внутри этого «законодательного» агента?
Physiclaw — не новая модель, а переосмысленная оболочка. Его главная фишка — полная автономность. Вот что он умеет из коробки:
- Локальные эндпоинты по умолчанию: изначальная конфигурация заточена под vLLM и llama.cpp. Никаких сюрпризов в виде fallback на OpenAI.
- Вырезанная телеметрия: весь код, который «звонил домой», вычищен. Проверено сообществом через аудит в январе 2026.
- Поддержка актуальных моделей: работает с GPT-OSS 20B-Latest, Command-R 2025, и любыми другими моделями, которые вы запустите локально. Если вы экспериментировали с Kilo Code на нескольких GPU, принцип тот же.
- Готовность к air-gapped: все зависимости пакуются в Docker-образ, который можно протащить на флешке. Идеально для сред, где даже DNS-запрос — это нарушение протокола.
По сути, это конструктор для взрослых. Хотите агента, который управляет роботом? Подключите VLA-модель как в PhysicalAgent. Нужна память и планирование? Встройте механизмы из глубоких Agent Skills.
Чем Physiclaw бьет по рукам другие локальные решения?
| Инструмент | Философия | Где споткнетесь |
|---|---|---|
| Physiclaw (v2.4.1) | Максимальная изоляция. Никаких компромиссов. | Требует ручной настройки моделей. Не для тех, кто ищет one-click install. |
| LocalAI v3.10+ | Универсальный Swiss Army knife для локальных моделей. | Огромный кодбаза, часть плагинов все еще стучится в облака. Как в последнем руководстве — нужно вручную отключать сервисы. |
| AgentCPM-Explore | Специализированный компактный агент для edge-устройств. | Жесткая привязка к своей 4B модели. Не подойдет, если вам нужен SOTA на ноутбуке, но с другой архитектурой. |
| Самописные агенты на MCP | Гибкость как в сборке из LEGO. | Нужно самому следить за безопасностью каждого коннектора. Ошибка в одном skill — и ваши данные утекли. |
Physiclaw выбирает радикальный путь. Он не пытается угодить всем. Он для тех, чей первый вопрос: «А где здесь отключается отправка логов?».
Инструкция: от нуля до работающего агента в изолированной сети
Забудьте про docker-compose из интернета. Вот как собрать систему, которая никогда не попросит права выхода в сеть.
1 Подготовка: железо и базовое ПО
Минимум — машина с Ubuntu 24.04 LTS, 32 ГБ ОЗУ и GPU с 8 ГБ VRAM (например, RTX 4070). Для серьезных моделей вроде GPT-OSS 20B нужны уже две RTX 4090 или эквивалент. Убедитесь, что интернет отключен на аппаратном уровне (вынули кабель, отключили Wi-Fi).
# Проверяем, что сеть действительно мертва
ping 8.8.8.8 -c 2
# В ответ должны получить: "Network is unreachable" или таймаут.
2 Установка локального бэкенда для моделей (ваш выбор)
Вариант А — для максимальной скорости на GPU: vLLM 0.5.7.
# Клонируем и собираем vLLM офлайн (пакеты должны быть уже скачаны)
tar -xzf vllm-0.5.7-deps.tar.gz
cd vllm-0.5.7
pip install --no-index --find-links=./deps -e .
# Запускаем сервер для модели, например, Qwen2.5-14B
python -m vllm.entrypoints.openai.api_server \
--model /path/to/qwen2.5-14b-instruct \
--api-key "local-key" \
--port 8000 \
--disable-log-requests # Критично: отключаем логирование промптов
Вариант Б — для работы на CPU или старом железе: llama.cpp (коммит от января 2026).
cd llama.cpp
make -j8
./server -m /path/to/model.gguf -c 4096 --port 8080 -ngl 99
Теперь у вас есть локальный эндпоинт, который отвечает как OpenAI API, но внутри вашей сети. Проверяем:
curl http://localhost:8000/v1/models -H "Authorization: Bearer local-key"
3 Установка и настройка Physiclaw
Качаем архив Physiclaw v2.4.1 с доверенного источника и распаковываем.
tar -xzf physiclaw-v2.4.1-airgap.tar.gz
cd physiclaw
Редактируем конфиг `config/local.yaml` — это главный файл, где вырезаны все облачные ссылки.
# config/local.yaml
llm:
base_url: "http://127.0.0.1:8000/v1" # Ваш vLLM или llama.cpp сервер
api_key: "local-key"
model: "qwen2.5-14b-instruct" # Имя модели, которое знает ваш сервер
telemetry:
enabled: false # Эта опция здесь только для вида. Код ее отправки удален.
skills:
- name: "file_ops"
path: "./skills/local_file_ops.py" # Локальные навыки работы с файлами
- name: "web_search"
enabled: false # Поиск отключен, ведь сети нет. Полностью удален код из сборки.
Внимание! В Physiclaw v2.4 удален целый модуль `external_call.py`. Если в конфиге вы видите параметры типа `fallback_to_cloud`, значит, у вас старая версия. Качайте заново.
4 Запуск и первый диалог
Активируем виртуальное окружение и запускаем агента.
python -m venv .venv
source .venv/bin/activate
pip install --no-index -r requirements_airgap.txt # Все зависимости локально
python main.py --config config/local.yaml
Если все сделано верно, вы увидите приветственное сообщение и промпт `physiclaw>`. Задайте вопрос. Агент будет использовать только вашу локальную модель. Никаких внешних запросов.
Где это взрывает мозг на практике?
Юридические фирмы, которые анализируют конфиденциальные дела. Финансовые аналитики, работающие с инсайдерской информацией до отчетности. Исследовательские лаборатории, где данные — это будущие патенты. Даже военные, которые экспериментируют с десктоп-агентами для планирования.
Physiclaw — это не про игрушки. Это про работу. Когда вам нужно построить полностью локальную RAG-систему для внутренних документов, этот форк становится фундаментом.
Кому стоит заморачиваться с Physiclaw?
Беритесь, если: вы системный администратор в регулируемой отрасли (финансы, здравоохранение), ваш отдел безопасности помешан на compliance, или вы просто ненавидите идею, что ваш ИИ-ассистент что-то рассказывает о вас третьим лицам.
Даже не открывайте, если: вы хотите «просто попробовать ИИ», вас устраивает бесплатный тариф ChatGPT, или мысль о ручной настройке CUDA-драйверов вызывает панику.
Физический закон приватности прост: данные не покидают периметр. Physiclaw — это просто инструмент, который делает этот закон исполняемым в мире, где каждая новая фича тянет за собой десяток облачных вызовов. В 2026 году это уже не опция, а необходимость. И следующий шаг — такие агенты появятся даже в микроконтроллерах.