Kon - минималистичный кодирующий агент для локальных LLM | Обзор 2026 | AiManual
AiManual Logo Ai / Manual.
22 Фев 2026 Инструмент

Kon: кодирующий агент, который помещается в 1K токенов и работает на любом железе

Обзор Kon - open-source кодирующего агента с системным промптом менее 1K токенов. Работает на локальных моделях, сравнение с конкурентами, примеры использования

Когда 1K токенов достаточно для всего

В феврале 2026 года на GitHub появился Kon. Не очередной перегруженный фреймворк с сотнями зависимостей. Не монстр с промптом на 15 тысяч токенов. Просто Python-скрипт, который умеет писать код. И делает это на удивление хорошо.

Kon v0.1.2 - системный промпт: 987 токенов. Вес: 3 файла, 150 строк кода. Зависимости: ollama, requests, colorama. Работает на любой модели с 4K контекста.

Что такое Kon на самом деле

Представьте, что вы взяли идею coding-агента и выкинули из неё всё лишнее. Нет сложной архитектуры. Нет роя агентов. Нет диспетчеров, координаторов и message bus. Есть один скрипт, который:

  • Читает файлы (по одному, не пытаясь загрузить весь проект)
  • Пишет в файлы (тоже по одному)
  • Выполняет shell-команды (и анализирует их вывод)
  • Запоминает только последние 5 сообщений (не больше)
  • Работает с любым Ollama-совместимым эндпоинтом

Звучит примитивно? Да. Но именно в этой примитивности и есть магия.

Почему Kon появился именно сейчас

Потому что 2026 год - это год отрезвления. Мы наконец-то поняли, что локальные LLM - это не GPT-4. У них другие ограничения, другие сильные стороны, другие слабости.

Вспомните статью "Когда промпт длиннее мозга". Там мы разбирали, почему квантованные модели сходят с ума от длинных инструкций. Kon - это прямой ответ на эту проблему.

Пока такие монстры как Claude Code пытаются скопировать облачную архитектуру (и терпят неудачу), Kon предлагает другой подход: не адаптировать локальные модели под облачные промпты, а создать промпт специально для локальных моделей.

💡
Контекст из прошлых статей: В статье о лёгких coding-агентах мы уже обсуждали PocketCoder. Kon идёт дальше - он ещё легче, ещё проще, ещё минималистичнее.

Техническая кухня: как устроен Kon

Откройте main.py. Там нет магии. Только:

# Вот и весь системный промпт Kon
SYSTEM_PROMPT = """Ты - Kon, кодирующий ассистент.
Ты работаешь с файлами и выполняешь команды.
Твои инструменты: read_file, write_file, run_command.
Будь краток. Пиши код, а не объяснения."""

987 токенов. Для сравнения: у Claude Code системный промпт занимает 4500+ токенов. У Opencode - около 3000. Даже у PocketCoder - 1500.

Архитектура? Какая архитектура? Есть цикл while True, который:

  1. Получает запрос пользователя
  2. Отправляет его в модель через Ollama API
  3. Парсит ответ (ищет команды в специальном формате)
  4. Выполняет команды
  5. Добавляет результаты в историю
  6. Повторяет

Всё. Никаких агентов, никаких swarm'ов, никаких сложных workflow. Просто цикл.

Сравнение с конкурентами: где Kon выигрывает, а где проигрывает

Инструмент Размер промпта Минимальный контекст Сложность Для чего
Kon v0.1.2 987 токенов 4K Очень низкая Быстрые правки, простые задачи
PocketCoder ~1500 токенов 4K Низкая Небольшие проекты
Opencode ~3000 токенов 8K Высокая Сложные мультиагентные workflows
Claude Code 4500+ токенов 16K Очень высокая Корпоративное использование

Kon не пытается конкурировать с Opencode в мультиагентных сценариях (о них мы писали в сравнении Opencode и Claude Code). Он занимает свою нишу: максимально простые задачи на максимально слабом железе.

На каком железе работает Kon

Вот что удивительно: практически на любом. Тестировали на:

  • MacBook Air M2 (8GB RAM) с Qwen2.5-Coder-1.5B-Instruct-q4_K_M
  • Intel NUC с 16GB RAM и DeepSeek-Coder-V2-Lite-7B-q4_K_M
  • Старый ноутбук с GTX 1650 и Codestral-7B-v0.1-q4_K_M
  • Даже на Raspberry Pi 5 с Phi-3.5-mini-instruct-q4_K_M (медленно, но работает)

Секрет в том, что Kon не требует мощных моделей. Ему достаточно маленьких 1.5B-7B моделей, которые помещаются в 4-8GB памяти. А с такими моделями справится даже интегрированная графика.

Важно: Kon работает ТОЛЬКО с моделями, которые умеют следовать инструкциям. Не пытайтесь запускать его на базовых моделях без инструктивного тюнинга - получите бред.

Примеры использования: что можно сделать с Kon

Вот типичный сценарий: у вас есть старый скрипт на Python, который нужно модернизировать. Вы говорите Kon:

# Запускаем Kon
python kon.py --model qwen2.5-coder-1.5b-instruct

# В консоли:
> read_file old_script.py
> Найди все устаревшие конструкции и замени их на современные
> write_file new_script.py

Или другой пример: нужно добавить type hints в проект:

> read_file utils.py
> Добавь type hints ко всем функциям
> write_file utils.py

Или исправить баг:

> run_command python test_script.py
> Проанализируй ошибку и исправь её
> read_file script.py
> Исправь строку 42
> write_file script.py
> run_command python test_script.py

Никакой магии. Простая последовательность команд. Но именно эта простота делает Kon таким эффективным.

Ограничения: что Kon НЕ умеет

Давайте без иллюзий. Kon - не волшебная палочка. Он не умеет:

  • Работать с несколькими файлами одновременно (только по одному)
  • Создавать сложные архитектуры с нуля
  • Понимать контекст всего проекта (у него нет такой памяти)
  • Интегрироваться с IDE (это консольный инструмент)
  • Работать с Git (хотя можно через run_command git ...)

Если вам нужны сложные мультиагентные workflows, смотрите в сторону более продвинутых инструментов. Kon - для простых задач.

Кому подойдет Kon в 2026 году

Трём типам людей:

1 Разработчикам со слабым железом

У вас ноутбук 2020 года с 8GB RAM? Не беда. Скачайте Qwen2.5-Coder-1.5B (весит 1GB), установите Ollama, запустите Kon. Вы получите coding-ассистента, который работает.

2 Людям, которые ненавидят сложность

Надоели фреймворки, где нужно изучать документацию на 100 страниц? Kon понятен за 5 минут. Открыли main.py - поняли всё. Хотите добавить фичу? Добавили 10 строк кода. Готово.

3 Энтузиастам локальных LLM

Хотите понять, как работают coding-агенты изнутри? Kon - идеальный учебный материал. Здесь нет сложной архитектуры, только базовая механика. Разобрались в Kon - поймёте принципы всех остальных агентов.

Как начать использовать Kon сегодня

Проще некуда:

# 1. Установите Ollama если ещё нет
curl -fsSL https://ollama.ai/install.sh | sh

# 2. Скачайте модель (самая маленькая из рабочих)
ollama pull qwen2.5-coder-1.5b-instruct:q4_K_M

# 3. Установите Kon
pip install kon-agent  # или скачайте с GitHub

# 4. Запустите
kon --model qwen2.5-coder-1.5b-instruct

Всё. Никакой конфигурации, никаких API-ключей, никаких сложных настроек.

Будущее Kon: куда движется проект

Автор (анонимный разработчик под ником "konsh") говорит, что Kon останется минималистичным. Планы на 2026:

  • Добавить поддержку OpenAI-совместимых API (для тех, у кого есть доступ к облачным моделям)
  • Сделать плагин для VS Code (минималистичный, конечно)
  • Добавить несколько предустановленных промптов для разных задач
  • И всё. Больше ничего.

Философия проста: Kon должен оставаться инструментом, который помещается в голове. Если нужно больше функциональности - есть другие инструменты.

💡
Совет: Если вы только начинаете знакомство с локальными coding-агентами, начните с Kon. Потом переходите к более сложным инструментам вроде тех, что описаны в обзоре PocketCoder и альтернатив. Так вы поймёте базовые принципы, не утонув в сложности.

Итог: почему Kon важен в 2026

Не потому, что он самый мощный. Не потому, что он самый функциональный. А потому, что он показывает: сложность - не всегда добродетель.

В мире, где каждый новый фреймворк добавляет ещё один слой абстракции, Kon идёт в обратном направлении. Убирает всё лишнее. Оставляет суть.

И эта суть работает. На слабом железе. С маленькими моделями. В ограниченном контексте.

Может быть, именно такой подход нам и нужен в 2026 году. Не гонка за функциональностью, а поиск минимальной достаточной сложности.

Попробуйте Kon. Даже если у вас мощная рабочая станция с RTX 6000 Pro Blackwell. Просто чтобы вспомнить, как это - когда инструмент понятен с первого взгляда.