Physiclaw: локальный AI-агент без облаков. Установка и настройка на vLLM/llama.cpp | AiManual
AiManual Logo Ai / Manual.
16 Фев 2026 Инструмент

Физический закон приватности: как запустить AI-агент Physiclaw без единого облачного запроса

Пошаговая инструкция по развертыванию форка Physiclaw в air-gapped среде. Удаляем телеметрию, подключаем локальные vLLM и llama.cpp эндпоинты.

Когда облака — это дыра в заборе

Представьте, что ваш AI-агент каждые пять секунд шепчет на ухо OpenAI или Anthropic детали вашего финансового отчета или патентной заявки. Неудобно? В 2026 году это уже не паранойя, а стандартный compliance-кошмар. Physiclaw — это ответный удар по облачной зависимости.

Этот форк взял популярную архитектуру агента и вырвал из нее все, что связано с внешним миром. Телеметрия? Удалена. Облачные API? Заменены на локальные эндпоинты. Остался только чистый код, который работает там, где вам нужно — в изолированной сети, на сервере без интернета, на ноутбуке в самолете.

Важно: на момент 16 февраля 2026 года актуальная ветка Physiclaw — v2.4.1. Все, что ниже v2.4, не поддерживает новейшие оптимизации vLLM 0.5.7 и имеет уязвимости в системе контекстного менеджмента.

Что внутри этого «законодательного» агента?

Physiclaw — не новая модель, а переосмысленная оболочка. Его главная фишка — полная автономность. Вот что он умеет из коробки:

  • Локальные эндпоинты по умолчанию: изначальная конфигурация заточена под vLLM и llama.cpp. Никаких сюрпризов в виде fallback на OpenAI.
  • Вырезанная телеметрия: весь код, который «звонил домой», вычищен. Проверено сообществом через аудит в январе 2026.
  • Поддержка актуальных моделей: работает с GPT-OSS 20B-Latest, Command-R 2025, и любыми другими моделями, которые вы запустите локально. Если вы экспериментировали с Kilo Code на нескольких GPU, принцип тот же.
  • Готовность к air-gapped: все зависимости пакуются в Docker-образ, который можно протащить на флешке. Идеально для сред, где даже DNS-запрос — это нарушение протокола.

По сути, это конструктор для взрослых. Хотите агента, который управляет роботом? Подключите VLA-модель как в PhysicalAgent. Нужна память и планирование? Встройте механизмы из глубоких Agent Skills.

Чем Physiclaw бьет по рукам другие локальные решения?

Инструмент Философия Где споткнетесь
Physiclaw (v2.4.1) Максимальная изоляция. Никаких компромиссов. Требует ручной настройки моделей. Не для тех, кто ищет one-click install.
LocalAI v3.10+ Универсальный Swiss Army knife для локальных моделей. Огромный кодбаза, часть плагинов все еще стучится в облака. Как в последнем руководстве — нужно вручную отключать сервисы.
AgentCPM-Explore Специализированный компактный агент для edge-устройств. Жесткая привязка к своей 4B модели. Не подойдет, если вам нужен SOTA на ноутбуке, но с другой архитектурой.
Самописные агенты на MCP Гибкость как в сборке из LEGO. Нужно самому следить за безопасностью каждого коннектора. Ошибка в одном skill — и ваши данные утекли.

Physiclaw выбирает радикальный путь. Он не пытается угодить всем. Он для тех, чей первый вопрос: «А где здесь отключается отправка логов?».

Инструкция: от нуля до работающего агента в изолированной сети

Забудьте про docker-compose из интернета. Вот как собрать систему, которая никогда не попросит права выхода в сеть.

1 Подготовка: железо и базовое ПО

Минимум — машина с Ubuntu 24.04 LTS, 32 ГБ ОЗУ и GPU с 8 ГБ VRAM (например, RTX 4070). Для серьезных моделей вроде GPT-OSS 20B нужны уже две RTX 4090 или эквивалент. Убедитесь, что интернет отключен на аппаратном уровне (вынули кабель, отключили Wi-Fi).

# Проверяем, что сеть действительно мертва
ping 8.8.8.8 -c 2
# В ответ должны получить: "Network is unreachable" или таймаут.
💡
Если вам нужно сначала скачать модели и зависимости, сделайте это на отдельной машине с интернетом, а потом перенесите файлы через физический носитель. Это и есть классический air-gapped workflow.

2 Установка локального бэкенда для моделей (ваш выбор)

Вариант А — для максимальной скорости на GPU: vLLM 0.5.7.

# Клонируем и собираем vLLM офлайн (пакеты должны быть уже скачаны)
tar -xzf vllm-0.5.7-deps.tar.gz
cd vllm-0.5.7
pip install --no-index --find-links=./deps -e .
# Запускаем сервер для модели, например, Qwen2.5-14B
python -m vllm.entrypoints.openai.api_server \
  --model /path/to/qwen2.5-14b-instruct \
  --api-key "local-key" \
  --port 8000 \
  --disable-log-requests  # Критично: отключаем логирование промптов

Вариант Б — для работы на CPU или старом железе: llama.cpp (коммит от января 2026).

cd llama.cpp
make -j8
./server -m /path/to/model.gguf -c 4096 --port 8080 -ngl 99

Теперь у вас есть локальный эндпоинт, который отвечает как OpenAI API, но внутри вашей сети. Проверяем:

curl http://localhost:8000/v1/models -H "Authorization: Bearer local-key"

3 Установка и настройка Physiclaw

Качаем архив Physiclaw v2.4.1 с доверенного источника и распаковываем.

tar -xzf physiclaw-v2.4.1-airgap.tar.gz
cd physiclaw

Редактируем конфиг `config/local.yaml` — это главный файл, где вырезаны все облачные ссылки.

# config/local.yaml
llm:
  base_url: "http://127.0.0.1:8000/v1"  # Ваш vLLM или llama.cpp сервер
  api_key: "local-key"
  model: "qwen2.5-14b-instruct"  # Имя модели, которое знает ваш сервер

telemetry:
  enabled: false  # Эта опция здесь только для вида. Код ее отправки удален.

skills:
  - name: "file_ops"
    path: "./skills/local_file_ops.py"  # Локальные навыки работы с файлами
  - name: "web_search"
    enabled: false  # Поиск отключен, ведь сети нет. Полностью удален код из сборки.

Внимание! В Physiclaw v2.4 удален целый модуль `external_call.py`. Если в конфиге вы видите параметры типа `fallback_to_cloud`, значит, у вас старая версия. Качайте заново.

4 Запуск и первый диалог

Активируем виртуальное окружение и запускаем агента.

python -m venv .venv
source .venv/bin/activate
pip install --no-index -r requirements_airgap.txt  # Все зависимости локально

python main.py --config config/local.yaml

Если все сделано верно, вы увидите приветственное сообщение и промпт `physiclaw>`. Задайте вопрос. Агент будет использовать только вашу локальную модель. Никаких внешних запросов.

Где это взрывает мозг на практике?

Юридические фирмы, которые анализируют конфиденциальные дела. Финансовые аналитики, работающие с инсайдерской информацией до отчетности. Исследовательские лаборатории, где данные — это будущие патенты. Даже военные, которые экспериментируют с десктоп-агентами для планирования.

Physiclaw — это не про игрушки. Это про работу. Когда вам нужно построить полностью локальную RAG-систему для внутренних документов, этот форк становится фундаментом.

Кому стоит заморачиваться с Physiclaw?

Беритесь, если: вы системный администратор в регулируемой отрасли (финансы, здравоохранение), ваш отдел безопасности помешан на compliance, или вы просто ненавидите идею, что ваш ИИ-ассистент что-то рассказывает о вас третьим лицам.

Даже не открывайте, если: вы хотите «просто попробовать ИИ», вас устраивает бесплатный тариф ChatGPT, или мысль о ручной настройке CUDA-драйверов вызывает панику.

Физический закон приватности прост: данные не покидают периметр. Physiclaw — это просто инструмент, который делает этот закон исполняемым в мире, где каждая новая фича тянет за собой десяток облачных вызовов. В 2026 году это уже не опция, а необходимость. И следующий шаг — такие агенты появятся даже в микроконтроллерах.