PocketCoder CLI-агент для кодинга с памятью на Ollama и OpenAI | AiManual
AiManual Logo Ai / Manual.
01 Фев 2026 Инструмент

PocketCoder: зачем платить $120 за Claude Code, если можно собрать своего агента на Ollama

Обзор open-source PocketCoder: CLI-агент с долгосрочной памятью для кодинга на Ollama и OpenAI. Экономия $120/месяц. Архитектура, установка, примеры использован

Очередной AI-агент для программирования? Нет, это PocketCoder

Каждый месяц в мире появляется десяток новых инструментов, которые обещают революционизировать процесс разработки. Большинство из них либо требуют подписки за $20-120 в месяц, либо работают только в облаке, либо просто не справляются с реальными задачами. PocketCoder вышел в начале 2026 года с другим подходом: это CLI-инструмент, который работает с любой моделью (локальной через Ollama или облачной через OpenAI), но главное — умеет запоминать контекст между сессиями.

Контекст на 01.02.2026: Claude Code стоит $120/месяц, ChatGPT Pro — $20, GitHub Copilot — $10. PocketCoder — бесплатный open-source проект с MIT лицензией.

Архитектура, которая работает, а не просто красиво выглядит

Разработчики PocketCoder (точнее, один разработчик — проект пока что соло) пошли по пути минимализма, но с умом. В основе лежит простая идея: AI-агент должен помнить, что он делал в прошлый раз. Звучит элементарно, но большинство инструментов вроде Cursor AI либо не сохраняют историю между сессиями, либо делают это через сложные векторные базы данных, которые требуют тонны ресурсов.

XML вместо векторных эмбеддингов

В PocketCoder контекст сессии хранится в XML-формате в папке .pocketcoder/. Каждый файл проекта получает свою собственную историю. Когда вы запускаете агента в директории проекта, он загружает предыдущий контекст и продолжает с того места, где остановился.

💡
XML-формат выбрали не просто так. Он структурированный, человекочитаемый (можно заглянуть и понять, что там происходит), и модели отлично с ним работают. В отличие от JSON, XML имеет чёткие теги и иерархию, что уменьшает вероятность ошибок парсинга.

Что умеет PocketCoder на самом деле

Не ждите здесь красивых интерфейсов или интеграции с десятками сервисов. Это инструмент для тех, кто не боится терминала.

  • Долгосрочная память: сохраняет контекст между запусками в .pocketcoder/session_context.xml
  • Поддержка любых моделей: локальные через Ollama (Llama 3.2 7B, CodeLlama 13B, DeepSeek Coder 33B) и облачные через OpenAI API (GPT-4o-mini, GPT-4.5-turbo-preview)
  • Два основных инструмента: write_file для создания/изменения файлов и run_command для выполнения shell-команд
  • Автоматическое создание контекста: при первом запуске в проекте агент анализирует структуру и создаёт базовый контекст
  • Конфигурация через YAML: один файл pocketcoder.yaml настраивает всё — от модели до промптов

Установка: 5 минут вместо вечности

1 Ставим зависимости (если их ещё нет)

Сначала убедитесь, что у вас установлены Python 3.10+ и Ollama (если планируете локальные модели). Ollama — это must-have для работы с локальными LLM в 2026 году, хотя многие до сих пор мучаются с прямыми загрузками моделей.

2 Клонируем и устанавливаем PocketCoder

git clone https://github.com/yourusername/pocketcoder.git
cd pocketcoder
pip install -e .

Да, вот и вся установка. Никаких Docker, никаких сложных зависимостей. Проект написан на Python и использует только стандартные библиотеки плюс requests для API-вызовов.

3 Настраиваем конфигурацию

Создайте pocketcoder.yaml в домашней директории или в проекте:

model_provider: "ollama"  # или "openai"
model_name: "codellama:13b"  # для Ollama
# или для OpenAI:
# openai_api_key: "sk-..."
# model_name: "gpt-4o-mini"

max_tokens: 4000
temperature: 0.2  # низкая для кодинга, высокая для креатива

system_prompt: |
  Ты — опытный разработчик. Пиши чистый, эффективный код.
  Используй инструменты write_file и run_command.
  Всегда объясняй, что делаешь.

Важно на 01.02.2026: для локальных моделей через Ollama убедитесь, что модель уже загружена (ollama pull codellama:13b). Новые версии моделей появляются постоянно — следите за обновлениями в нашем обзоре локальных моделей.

Работает ли это на практике? Проверяем на реальной задаче

Допустим, у вас есть проект на Flask, и нужно добавить систему аутентификации. Вместо того чтобы гуглить или копировать код с Stack Overflow, вы делаете:

cd ~/projects/my_flask_app
pocketcoder "Добавь JWT-аутентификацию в это Flask-приложение"

Агент проанализирует существующие файлы (он автоматически читает requirements.txt, app.py и другие), загрузит предыдущий контекст если он есть, и начнёт работать.

Вот что происходит внутри:

  1. PocketCoder загружает .pocketcoder/session_context.xml
  2. Добавляет туда ваш запрос и текущую структуру проекта
  3. Отправляет всё это в выбранную модель (локальную или OpenAI)
  4. Модель отвечает, используя инструменты write_file или run_command
  5. Каждое действие сохраняется обратно в контекст

Через 5-10 минут (зависит от модели) у вас будет готовая система аутентификации с миграциями, моделями пользователей, эндпоинтами и даже базовыми тестами.

Сравнение с альтернативами: где PocketCoder выигрывает, а где проигрывает

Инструмент Цена Память между сессиями Локальные модели Сложность
Claude Code $120/месяц Да (ограниченно) Нет Низкая
Cursor AI $20/месяц Нет Нет Низкая
GitHub Copilot $10/месяц Нет Нет Низкая
PocketCoder Бесплатно Да (полная) Да Средняя
Другие open-source агенты Бесплатно Редко Часто Высокая

Главное преимущество PocketCoder — именно долгосрочная память. Большинство open-source агенто вроде тех, что описаны в обзоре локальных агентов, либо не сохраняют контекст вообще, либо делают это через сложные системы, которые требуют отдельной настройки.

Подводные камни (потому что идеальных инструментов не бывает)

  • Только CLI: если вы ждёте красивой GUI — это не ваш инструмент. Здесь только терминал и текстовые файлы.
  • Зависит от качества модели: с локальной 7B моделью результаты будут скромнее, чем с GPT-4.5. Но это проблема всех локальных решений, о которой мы уже писали.
  • Нет встроенной отладки: если агент написал кривой код — вам придётся разбираться самостоятельно или просить его исправить.
  • Молодой проект: на момент 01.02.2026 PocketCoder существует всего пару месяцев. Багов хватает, документация неполная.

Кому подойдёт PocketCoder (а кому — нет)

Берите PocketCoder, если:

  • Устали платить $120 в месяц за Claude Code
  • Хотите полный контроль над своими данными (ничего не уходит в облако)
  • Уже используете Ollama и локальные модели
  • Не боитесь терминала и готовы потратить час на настройку
  • Работаете над долгосрочными проектами, где контекст важен

Не тратьте время, если:

  • Нужен инструмент «из коробки» без настройки
  • Предпочитаете GUI интерфейсы
  • У вас слабый компьютер (для локальных моделей нужно минимум 16 ГБ RAM)
  • Работаете только с мелкими задачами, где контекст не важен

Что будет дальше? Прогноз на 2026 год

PocketCoder — это симптом большой тенденции. Разработчики устали от подписок и хотят контролировать свои инструменты. В 2026 году мы увидим ещё больше подобных проектов: минималистичных, специализированных, open-source.

Но есть проблема: большинство таких инструментов умирают через полгода-год, потому что один разработчик не может поддерживать сложный проект в одиночку. У PocketCoder есть шанс выжить, если сообщество подхватит его. Архитектура простая, код читаемый — идеальный кандидат для форков и улучшений.

Совет на будущее: если начнёте использовать PocketCoder, делайте регулярные бэкапы папки .pocketcoder/. XML-файлы с контекстом — это ваша память о проекте. Потерять их будет обидно, особенно после месяцев работы.

Через год, к февралю 2027, PocketCoder либо станет популярным инструментом с плагинами и интеграциями, либо канет в лету, как десятки других проектов. Но пока что — это одна из лучших попыток сделать AI-агента для программирования, который действительно помнит, что он делал вчера.

И да, $120 в месяц — это слишком много за то, что можно собрать самому за выходные. Особенно когда у тебя уже есть Ollama и пачка локальных моделей.