Почему Cursor больше не вариант для серьёзной разработки
В 2026 году платить $20 в месяц за обёртку над GPT-4o — это как покупать Ferrari для поездок в ближайший супермаркет. Переплачиваешь за бренд, а под капотом — те же проблемы, что и три года назад. Контекст всё так же ограничен 128К токенов, код всё так же улетает в облако OpenAI, а интеграция с локальными моделями — это какая-то полурабочая фича, которую добавили для галочки.
Если вы работаете с закрытым кодом, в банковском секторе, медицине или любой другой регулируемой отрасли — Cursor это прямая дорога к нарушению compliance. Ваш код становится тренировочными данными для следующей версии GPT.
Но самое смешное — сообщество уже давно создало инструменты, которые делают всё то же самое, только лучше. Бесплатно. С открытым кодом. И без шпионажа за вашими промптами.
Kilo Code: наследник Cline, который не продался корпорациям
Помните историю про Cline и его поглощение OpenAI? Kilo Code — это ответ сообщества. Не форк, а полноценная переработка идеи локального AI-ассистента для программирования.
Что умеет Kilo Code из коробки:
- Автодополнение кода с пониманием контекста проекта
- Рефакторинг по команде (выделил код → нажал Ctrl+K → получил оптимизированную версию)
- Поиск по коду на естественном языке
- Генерация документации и тестов
- Отладка с объяснением ошибок
Но главное — LSP (Language Server Protocol) интеграция. Kilo Code не просто дополняет код, он понимает типы, структуры, импорты. Если вы пишете на TypeScript, он знает, какие интерфейсы уже определены. Если на Python — видит все функции в модуле.
1 Установка и настройка Kilo Code
Откройте VS Code, перейдите в Extensions и найдите "Kilo Code". Установка стандартная. После установки нужно настроить модель:
// settings.json для Kilo Code
{
"kilo-code.modelProvider": "ollama",
"kilo-code.model": "deepseek-coder:33b",
"kilo-code.contextWindow": 32768,
"kilo-code.autoComplete": true,
"kilo-code.codeActions": true,
"kilo-code.enableLSP": true
}
Глубокий Seek Coder 33B — это на январь 2026 года одна из лучших моделей для программирования. Поддерживает 32К контекста, отлично понимает многомодульные проекты. Если у вас слабее железо — берите 6.7B версию, она почти так же хороша для большинства задач.
Continue: VS Code расширение, которое не пытается быть умнее вас
Continue — это антипод Cursor. Никаких навязчивых подсказок, никаких "я знаю лучше". Просто инструмент, который делает то, что вы просите. И делает это хорошо.
Философия Continue проста: разработчик принимает решения, AI помогает их реализовать. Не наоборот. Это критически важно, когда вы работаете с legacy кодом или специфичными архитектурными решениями.
| Функция | Cursor | Continue | Kilo Code |
|---|---|---|---|
| Локальные модели | Ограниченная поддержка | Полная поддержка | 500+ моделей |
| LSP интеграция | Базовая | Продвинутая | Полная |
| Авто-исправление | Да | По запросу | Да + авто-рефакторинг |
| Цена | $20/месяц | Бесплатно | Бесплатно |
2 Как настроить авто-исправление в Continue
Continue не пытается исправлять всё подряд. Вместо этого он предлагает "быстрые исправления" по горячей клавише. Видите проблему в коде? Нажмите Ctrl+., и Continue предложит варианты исправления с объяснением.
// Пример: Continue находит уязвимость
const query = `SELECT * FROM users WHERE id = ${userId}`;
// Наводим курсор на query, жмём Ctrl+.
// Continue предлагает:
// 1. Использовать параметризованные запросы
// 2. Добавить валидацию userId
// 3. Экранировать специальные символы
Этот подход мне нравится больше, чем навязчивое авто-исправление Cursor. Потому что иногда код выглядит "неоптимально", но так и задумано по бизнес-логике.
CLI-инструменты: когда IDE слишком много
Бывают ситуации, когда открывать VS Code — это overkill. Нужно быстро пофиксить баг в конфиге, добавить пару строк в скрипт, проверить синтаксис. Для этого есть инструменты командной строки.
Aider: git-ориентированный AI-ассистент
Aider работает по принципу "покажи мне diff". Вы говорите, что нужно сделать, Aider изменяет файлы и показывает, что именно поменял. Весь процесс через git, можно откатить любые изменения.
# Установка
pip install aider-chat
# Работа с проектом
aider --model ollama/deepseek-coder:33b \
--dir /path/to/project \
"Добавь обработку ошибок в функцию process_data"
Aider анализирует весь проект, понимает контекст, и самое главное — не трогает файлы, которые не должны меняться. Если вы работаете с микросервисами, это спасение.
Claude Code CLI: то, что осталось от оригинального Cline
После того как команда Cline ушла в OpenAI, сообщество форкнуло проект и выпилило всё, что связано с облаком. Получился чистый CLI-инструмент для работы с локальными моделями.
# Установка через pipx (рекомендуется)
pipx install claude-code-cli
# Базовое использование
ccode --model local/llama.cpp:codellama-13b \
--file server.py \
"Оптимизируй обработку запросов, добавь кэширование"
Claude Code CLI идеально подходит для батч-обработки. Нужно добавить логгирование в 50 файлов? Одна команда, и инструмент пройдётся по всем, сохранив стиль кодирования проекта.
LSP-серверы на стероидах: когда нужно больше, чем подсветка синтаксиса
Стандартные LSP-серверы (TypeScript, Python, Go) хороши, но они не умеют "думать". Они проверяют типы, но не предлагают оптимизации. Не видят архитектурные проблемы. Не предлагают рефакторинг.
В 2026 году появились AI-enhanced LSP серверы. Это не расширения VS Code, а отдельные серверы, которые подключаются к любой IDE через стандартный протокол.
# Установка AI-LSP для Python
pip install ai-lsp-python
# Запуск сервера
ai-lsp-python --model ollama/codellama:13b \
--context-window 16384 \
--port 8080
# В VS Code настройка
// settings.json
{
"python.languageServer": "ai-lsp",
"python.languageServerPort": 8080
}
Преимущество такого подхода — независимость от IDE. Настроил один раз сервер, подключаешь к VS Code, Neovim, JetBrains, даже к Emacs если хотите. Вся логика в одном месте.
Ошибки, которые все совершают при переходе с Cursor
Ошибка №1: пытаться воспроизвести точь-в-точь поведение Cursor. Локальные модели работают иначе. Они медленнее на первом токене, но консистентнее в больших контекстах. Нужно менять workflow, а не ждать копию.
Ошибка №2: брать самую большую модель. DeepSeek Coder 33B крут, но если у вас 16GB RAM и вы работаете с 10 открытыми вкладками Chrome — будет тормозить. Начинайте с 7B моделей, они уже дают 80% качества.
Ошибка №3: не настраивать контекст. Локальные модели не видят весь проект по умолчанию. Нужно явно указывать, какие файлы включать в контекст. В Kilo Code это делается через .kiloignore (аналог .gitignore).
# .kiloignore
node_modules/
*.log
.env
*.min.js
# Но включаем конфиги
!.env.example
!package.json
!tsconfig.json
Ошибка №4: забывать про температурные настройки. Для автодополнения нужна низкая температура (0.1-0.3), для рефакторинга — средняя (0.5-0.7), для генерации новых идей — высокая (0.8-1.0). В Cursor это настраивалось автоматически, в локальных инструментах нужно делать вручную.
Стек, который работает в 2026 году
После месяцев экспериментов я остановился на таком наборе:
- Для повседневной разработки: VS Code + Kilo Code + DeepSeek Coder 6.7B. Быстро, достаточно умно для 95% задач
- Для сложного рефакторинга: Continue + Codellama 13B. Когда нужно переписать целый модуль с сохранением логики
- Для CLI работы: Aider + Ollama как бэкенд. Быстрые правки без открытия IDE
- Для code review: Claude Code CLI + полный контекст проекта. Ищет баги, которые пропускают люди
Этот стек полностью локальный. Работает без интернета. Не отправляет код в облако. И что самое важное — он бесплатный. Никаких $20 в месяц, никаких ограничений на использование.
Но есть нюанс, о котором мало кто говорит. Локальные модели требуют другого подхода к промптам. Нельзя просто написать "сделай красиво". Нужно быть конкретнее. Зато когда научишься — получаешь результат, который именно ты хотел, а не то, что решила нейросеть.
Если вы только начинаете переход с Cursor — начните с Kilo Code и модели 7B. Это минимальный порог входа. Через неделю поймёте, чего не хватает, и дополните стек другими инструментами. Главное — не пытайтесь скопировать Cursor один в один. Это тупиковый путь.
P.S. Через полгода использования локального стека я попробовал вернуться в Cursor. Выдержал 15 минут. Интерфейс кажется архаичным, ограничения — искусственными, а цена — неоправданной. Как будто пересел с электромобиля обратно на бензиновый — вроде едет, но шумно, воняет и дорого в обслуживании.