Когда 1K токенов достаточно для всего
В феврале 2026 года на GitHub появился Kon. Не очередной перегруженный фреймворк с сотнями зависимостей. Не монстр с промптом на 15 тысяч токенов. Просто Python-скрипт, который умеет писать код. И делает это на удивление хорошо.
Kon v0.1.2 - системный промпт: 987 токенов. Вес: 3 файла, 150 строк кода. Зависимости: ollama, requests, colorama. Работает на любой модели с 4K контекста.
Что такое Kon на самом деле
Представьте, что вы взяли идею coding-агента и выкинули из неё всё лишнее. Нет сложной архитектуры. Нет роя агентов. Нет диспетчеров, координаторов и message bus. Есть один скрипт, который:
- Читает файлы (по одному, не пытаясь загрузить весь проект)
- Пишет в файлы (тоже по одному)
- Выполняет shell-команды (и анализирует их вывод)
- Запоминает только последние 5 сообщений (не больше)
- Работает с любым Ollama-совместимым эндпоинтом
Звучит примитивно? Да. Но именно в этой примитивности и есть магия.
Почему Kon появился именно сейчас
Потому что 2026 год - это год отрезвления. Мы наконец-то поняли, что локальные LLM - это не GPT-4. У них другие ограничения, другие сильные стороны, другие слабости.
Вспомните статью "Когда промпт длиннее мозга". Там мы разбирали, почему квантованные модели сходят с ума от длинных инструкций. Kon - это прямой ответ на эту проблему.
Пока такие монстры как Claude Code пытаются скопировать облачную архитектуру (и терпят неудачу), Kon предлагает другой подход: не адаптировать локальные модели под облачные промпты, а создать промпт специально для локальных моделей.
Техническая кухня: как устроен Kon
Откройте main.py. Там нет магии. Только:
# Вот и весь системный промпт Kon
SYSTEM_PROMPT = """Ты - Kon, кодирующий ассистент.
Ты работаешь с файлами и выполняешь команды.
Твои инструменты: read_file, write_file, run_command.
Будь краток. Пиши код, а не объяснения."""
987 токенов. Для сравнения: у Claude Code системный промпт занимает 4500+ токенов. У Opencode - около 3000. Даже у PocketCoder - 1500.
Архитектура? Какая архитектура? Есть цикл while True, который:
- Получает запрос пользователя
- Отправляет его в модель через Ollama API
- Парсит ответ (ищет команды в специальном формате)
- Выполняет команды
- Добавляет результаты в историю
- Повторяет
Всё. Никаких агентов, никаких swarm'ов, никаких сложных workflow. Просто цикл.
Сравнение с конкурентами: где Kon выигрывает, а где проигрывает
| Инструмент | Размер промпта | Минимальный контекст | Сложность | Для чего |
|---|---|---|---|---|
| Kon v0.1.2 | 987 токенов | 4K | Очень низкая | Быстрые правки, простые задачи |
| PocketCoder | ~1500 токенов | 4K | Низкая | Небольшие проекты |
| Opencode | ~3000 токенов | 8K | Высокая | Сложные мультиагентные workflows |
| Claude Code | 4500+ токенов | 16K | Очень высокая | Корпоративное использование |
Kon не пытается конкурировать с Opencode в мультиагентных сценариях (о них мы писали в сравнении Opencode и Claude Code). Он занимает свою нишу: максимально простые задачи на максимально слабом железе.
На каком железе работает Kon
Вот что удивительно: практически на любом. Тестировали на:
- MacBook Air M2 (8GB RAM) с Qwen2.5-Coder-1.5B-Instruct-q4_K_M
- Intel NUC с 16GB RAM и DeepSeek-Coder-V2-Lite-7B-q4_K_M
- Старый ноутбук с GTX 1650 и Codestral-7B-v0.1-q4_K_M
- Даже на Raspberry Pi 5 с Phi-3.5-mini-instruct-q4_K_M (медленно, но работает)
Секрет в том, что Kon не требует мощных моделей. Ему достаточно маленьких 1.5B-7B моделей, которые помещаются в 4-8GB памяти. А с такими моделями справится даже интегрированная графика.
Важно: Kon работает ТОЛЬКО с моделями, которые умеют следовать инструкциям. Не пытайтесь запускать его на базовых моделях без инструктивного тюнинга - получите бред.
Примеры использования: что можно сделать с Kon
Вот типичный сценарий: у вас есть старый скрипт на Python, который нужно модернизировать. Вы говорите Kon:
# Запускаем Kon
python kon.py --model qwen2.5-coder-1.5b-instruct
# В консоли:
> read_file old_script.py
> Найди все устаревшие конструкции и замени их на современные
> write_file new_script.py
Или другой пример: нужно добавить type hints в проект:
> read_file utils.py
> Добавь type hints ко всем функциям
> write_file utils.py
Или исправить баг:
> run_command python test_script.py
> Проанализируй ошибку и исправь её
> read_file script.py
> Исправь строку 42
> write_file script.py
> run_command python test_script.py
Никакой магии. Простая последовательность команд. Но именно эта простота делает Kon таким эффективным.
Ограничения: что Kon НЕ умеет
Давайте без иллюзий. Kon - не волшебная палочка. Он не умеет:
- Работать с несколькими файлами одновременно (только по одному)
- Создавать сложные архитектуры с нуля
- Понимать контекст всего проекта (у него нет такой памяти)
- Интегрироваться с IDE (это консольный инструмент)
- Работать с Git (хотя можно через run_command git ...)
Если вам нужны сложные мультиагентные workflows, смотрите в сторону более продвинутых инструментов. Kon - для простых задач.
Кому подойдет Kon в 2026 году
Трём типам людей:
1 Разработчикам со слабым железом
У вас ноутбук 2020 года с 8GB RAM? Не беда. Скачайте Qwen2.5-Coder-1.5B (весит 1GB), установите Ollama, запустите Kon. Вы получите coding-ассистента, который работает.
2 Людям, которые ненавидят сложность
Надоели фреймворки, где нужно изучать документацию на 100 страниц? Kon понятен за 5 минут. Открыли main.py - поняли всё. Хотите добавить фичу? Добавили 10 строк кода. Готово.
3 Энтузиастам локальных LLM
Хотите понять, как работают coding-агенты изнутри? Kon - идеальный учебный материал. Здесь нет сложной архитектуры, только базовая механика. Разобрались в Kon - поймёте принципы всех остальных агентов.
Как начать использовать Kon сегодня
Проще некуда:
# 1. Установите Ollama если ещё нет
curl -fsSL https://ollama.ai/install.sh | sh
# 2. Скачайте модель (самая маленькая из рабочих)
ollama pull qwen2.5-coder-1.5b-instruct:q4_K_M
# 3. Установите Kon
pip install kon-agent # или скачайте с GitHub
# 4. Запустите
kon --model qwen2.5-coder-1.5b-instruct
Всё. Никакой конфигурации, никаких API-ключей, никаких сложных настроек.
Будущее Kon: куда движется проект
Автор (анонимный разработчик под ником "konsh") говорит, что Kon останется минималистичным. Планы на 2026:
- Добавить поддержку OpenAI-совместимых API (для тех, у кого есть доступ к облачным моделям)
- Сделать плагин для VS Code (минималистичный, конечно)
- Добавить несколько предустановленных промптов для разных задач
- И всё. Больше ничего.
Философия проста: Kon должен оставаться инструментом, который помещается в голове. Если нужно больше функциональности - есть другие инструменты.
Итог: почему Kon важен в 2026
Не потому, что он самый мощный. Не потому, что он самый функциональный. А потому, что он показывает: сложность - не всегда добродетель.
В мире, где каждый новый фреймворк добавляет ещё один слой абстракции, Kon идёт в обратном направлении. Убирает всё лишнее. Оставляет суть.
И эта суть работает. На слабом железе. С маленькими моделями. В ограниченном контексте.
Может быть, именно такой подход нам и нужен в 2026 году. Не гонка за функциональностью, а поиск минимальной достаточной сложности.
Попробуйте Kon. Даже если у вас мощная рабочая станция с RTX 6000 Pro Blackwell. Просто чтобы вспомнить, как это - когда инструмент понятен с первого взгляда.