CLI-MCP-конвертер: MCP-серверы для локальных AI без кода | 2026 | AiManual
AiManual Logo Ai / Manual.
31 Мар 2026 Инструмент

CLI-MCP-конвертер: как дать локальной AI-модели доступ к kubectl, docker и git без написания кода

Rust-инструмент CLI-MCP-конвертер автоматически создает MCP-серверы. Дайте локальным AI доступ к kubectl, docker, git. Обзор, примеры, настройка за 5 минут.

Локальные AI и пустой терминал: что не так?

Вы поставили свежую Mistral-Nemo 12B через lm-studio, настроили MCP-клиент по гайду и... что дальше? Модель умная, но беспомощная. Она не посмотрит логи в Kubernetes, не соберет Docker-образ и не сделает git push. Она живет в текстовом вакууме. До сегодняшнего дня.

💡
MCP (Model Context Protocol) – это открытый протокол от Anthropic, который позволяет AI-моделям подключаться к внешним инструментам, базам данных и API. Но чтобы заставить его работать с вашим CLI, раньше нужно было писать сервер на Rust или Python.

CLI-MCP-конвертер: волшебная палочка из 2026 года

В марте 2026-го на GitHub выкатили инструмент, который решает проблему одним файлом конфигурации. CLI-MCP-конвертер – это утилита на Rust, которая берет описание вашей консольной команды в YAML и генерирует готовый MCP-сервер. Ни строчки кода.

Автор (анонимный инженер из Швейцарии) написал его на волне хайпа вокруг локальных MCP-серверов. Идея проста до гениальности: если каждый CLI-инструмент – это по сути набор команд с флагами и аргументами, почему бы не описать этот набор декларативно и не скомпилировать в сервис?

На 31.03.2026 актуальная версия – v1.2.3. В ней добавили поддержку подкоманд (например, kubectl get pods) и валидацию аргументов через регулярные выражения. Ранние версии (v1.0.x) работали только с плокими командами.

1Как это работает: от YAML к серверу за 10 секунд

Вы пишете конфиг вроде такого для docker ps:

name: docker_ps
description: "List containers"
executable: "docker"
args:
  - "ps"
flags:
  - name: "all"
    flag: "-a"
    description: "Show all containers (default shows just running)"
  - name: "filter"
    flag: "--filter"
    description: "Filter output based on conditions provided"
    takes_value: true

Потом запускаете конвертер:

cli-mcp-converter generate -c docker_ps.yaml -o ./mcp-servers/

И получаете готовый Rust-крейт, который уже скомпилирован в бинарный MCP-сервер. Остается только прописать путь к нему в конфиге вашего AI-клиента – например, в Open Cowork или llama.cpp с MCP.

Живые примеры: kubectl, git и не только

Вот что умеет AI после подключения таких серверов:

  • kubectl: "Покажи поды в namespace staging, где CPU usage больше 80%" – модель сама сформирует команду с флагами --namespace и --field-selector.
  • git: "Создай новую ветку от main, добавь все изменения и сделай коммит с сообщением 'фикс бага'" – одна инструкция вместо трех команд.
  • docker: "Собери образ из текущего Dockerfile с тегом v1.2.3 и запуши в registry" – здесь уже экономится минута ручного труда.

Конвертер не ограничивается девелоперскими инструментами. В репозитории лежат примеры для ffmpeg, imagemagick, jq и даже для curl (да, AI сможет делать HTTP-запросы по вашему описанию).

ИнструментЧто делает AIВремя настройки
kubectlУправление кластером, логи, дебаг~5 минут
docker / podmanСборка, запуск, управление контейнерами~3 минуты
gitВетки, коммиты, история, мердж~2 минуты
aws-cli / gcloudУправление облачными ресурсами~10 минут (много команд)

А что с альтернативами? Их нет

Раньше было три пути:

  1. Писать MCP-сервер вручную. Требует знания Rust, времени и нервов. Как в этом сложном примере с графом знаний.
  2. Использовать универсальные плагины. Например, Coder-link пытается объединить конфиги, но не генерирует серверы.
  3. Ждать, пока кто-то напишет. Сообщество создало серверы для файловой системы и погоды, но кто напишет для вашего внутреннего CLI?

CLI-MCP-конвертер убивает проблему в зародыше. Вы описываете команду – получаете сервер. Не нужно думать про токены, аутентификацию или сериализацию данных. Генератор уже знает про последние изменения в MCP-протоколе (на март 2026-го это версия 1.1).

Инструмент сам обрабатывает ошибки CLI. Если kubectl get pods вернет ошибку из-за проблем с kubeconfig, сервер корректно передаст stderr в модель, и она предложит решение. В ранних версиях это падало с нечитаемыми panic.

Кому это вправду нужно? Вам

Если вы:

  • DevOps, который устал от однообразных kubectl logs и docker build.
  • Разработчик, перешедший на локальные альтернативы Cursor AI и желающий той же интеграции с терминалом.
  • Системный администратор, который управляет десятками серверов через CLI и хочет делегировать рутину AI.
  • Любой, кто уже настроил LM Studio с MCP и хочет больше возможностей.

То CLI-MCP-конвертер сэкономит вам часы. Не дни – часы, потому что настройка одного сервера занимает от 2 до 10 минут. А работает он потом годами.

Самый неочевидный совет? Начните с git. Это самый простой и наглядный пример. Опишите команды status, add, commit, push – и ваша локальная модель вдруг станет полноценным напарником в разработке. Без единой строчки Rust-кода. После этого вы по-другому посмотрите на все эти "революционные" облачные AI-ассистенты с подпиской за $20 в месяц.

Подписаться на канал