LangGraph Deploy CLI: развертывание AI-агентов в продакшн за 5 минут | 2026 | AiManual
AiManual Logo Ai / Manual.
16 Мар 2026 Инструмент

Как развернуть продакшн-агента на LangSmith: полный гайд по новому CLI LangGraph Deploy

Пошаговая инструкция по деплою AI-агентов через новый LangGraph Deploy CLI. Установка uvx, CI/CD пайплайн, Docker образы и мониторинг в LangSmith.

Ваш агент работает на localhost? Пора вылезать из подвала

Вы провели недели, отлаживая агента на LangGraph. Он идеально отвечает на вашем ноутбуке. А теперь что? Копировать файлы на сервер через SCP и молиться, чтобы не сломалось? В 2026 году так не делают. Команда LangChain выкатила langgraph-cli – инструмент, который превращает вашего местного агента в продакшн-сервис за три команды.

Если вы до сих пор разворачиваете агентов вручную, вы тратите 80% времени на обвязку и 20% – на логику. С этим CLI пропорции меняются.

LangGraph Deploy CLI: не просто утилита, а ваш продакшн-инженер

Новый CLI – это не обертка вокруг Docker. Это полноценный фреймворк для управления жизненным циклом агентов. Он знает, как упаковать вашего LangGraph агента, создать Docker образ, отправить его в облако и подключить к LangSmith для observability. И все это – из коробки.

💡
В версии 2.1 (актуально на март 2026) CLI получил поддержку multi-cloud деплоя. Теперь можно одним флагом выбрать AWS, GCP или даже приватный Kubernetes кластер.

1Ставим через uvx – никакого пипа

Забудьте про pip install и виртуальные окружения. В 2026 все ставят через uvx – установщик, который не пачкает систему.

uvx install langgraph-cli

Проверяем, что встало:

langgraph --version
# langgraph-cli/2.1.0

2Инициализируем проект деплоя

Переходим в папку с вашим агентом. У вас уже есть graph на LangGraph, правда? Если нет, сначала посмотрите как создавать серверless агентов.

cd ~/projects/my-super-agent
langgraph init

CLI задаст несколько вопросов: имя сервиса, облачный провайдер, размер инстанса. Не переживайте – все можно поменять потом в langgraph.yaml.

Секрет: в langgraph.yaml можно указать переменные окружения для секретов (API ключи, пароли). CLI никогда не запишет их в логи или Docker образ.

3Тестовый запуск локально

Перед отправкой в облако проверьте, как агент будет работать в продакшн-среде:

langgraph serve --local

Эта команда поднимет локальный сервер с вашим агентом, но с продакшн-конфигурацией. Если ваш агент использует сложные цепочки инструментов, сейчас самое время их проверить.

4Деплой одной командой

Вот момент истины. Запускаете деплой и идете пить кофе.

langgraph deploy --env prod

Что происходит под капотом:
1. CLI пакует весь ваш код в Docker образ (использует многодневные кэши, чтобы не скачивать пакеты каждый раз)
2. Загружает образ в container registry
3. Создает cloud-сервис с автоскейлингом
4. Настраивает балансировку нагрузки
5. Подключает агента к вашему аккаунту LangSmith для полного мониторинга

Внимание: если вы не настроили cloud credentials, CLI предложит сделать это сейчас. Поддерживает AWS, GCP и Azure. Для корпоративных пользователей, которые разворачивают через Google Cloud Marketplace, есть отдельная инструкция.

CI/CD пайплайн за 10 строк кода

Ручной деплой – для слабаков. Настройте автоматическое развертывание при пуше в main ветку.

Пример для GitHub Actions:

name: Deploy Agent
on:
  push:
    branches: [main]
jobs:
  deploy:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v4
      - uses: astral-sh/uv-install-action@v1
      - run: uvx install langgraph-cli
      - run: langgraph deploy --env prod --auto-approve
        env:
          LANGSMITH_API_KEY: ${{ secrets.LANGSMITH_API_KEY }}
          AWS_ACCESS_KEY_ID: ${{ secrets.AWS_ACCESS_KEY_ID }}

Флаг --auto-approve отключает интерактивные вопросы. Идеально для CI/CD.

А что с альтернативами? Почему не просто Dockerfile?

Можно конечно написать Dockerfile на 50 строк, настроить nginx, сделать healthchecks, прикрутить метрики. Но зачем? LangGraph Deploy CLI делает это из коробки плюс:

ЗадачаРучной деплойLangGraph Deploy CLI
Сборка Docker образа15-30 минут настройкиАвтоматически, с кэшированием
Настройка observabilityОтдельный проект на неделюИнтеграция с LangSmith за 2 минуты
АвтоскейлингСложная конфигурация в облакеФлаг --min-instances 2 --max-instances 10
Обновление без даунтаймаBlue-green deployment рукамиВстроенный rolling update

Есть и другие фреймворки вроде RLM-Toolkit, но они не дают такой глубокой интеграции с экосистемой LangChain.

Кому этот инструмент сломает график (в хорошем смысле)

LangGraph Deploy CLI – не для всех. Он создан для конкретной аудитории:

  • Команды, которые уже используют LangSmith. Если у вас еще нет аккаунта, зарегистрируйтесь по партнерской ссылке – получите дополнительный кредит на мониторинг.
  • Разработчики, уставшие от DevOps рутины. Те, кто хочет фокусироваться на агентной инженерии, а не на настройке Kubernetes.
  • Стартапы, которые нужно быстро выкатывать в продакшн. Когда каждая неделя задержки стоит денег.
  • Корпорации, которым нужен контроль. CLI работает с приватными облаками и корпоративными реестрами.

А вот кто будет страдать: фанаты ручной настройки каждого воркера. Им придется признать, что 80% их работы теперь автоматизировано.

Что будет, если не использовать CLI? Вы останетесь в 2024

Инструменты вроде Skills и CLI для coding agents показали: автоматизация рутинных задач увеличивает эффективность в разы. С деплоем та же история.

Мой прогноз на конец 2026: 90% продакшн-агентов будут разворачиваться через специализированные CLI. Ручные скрипты умрут как мамонты. А те, кто освоит инструменты вроде LangGraph Deploy сейчас, окажутся на гребне волны.

P.S. Первый раз запускаете деплой? Не забудьте про --dry-run – он покажет, что будет сделано, без реальных изменений. И да, если что-то пойдет не так, всегда можно откатиться: langgraph rollback --env prod. Это как Ctrl+Z для вашего продакшна.

Подписаться на канал