Почему Cursor бесит всех, кто попробовал локальные модели
Вы читали мою статью про тест производительности Cursor с локальными моделями. Помните эти цифры? 14 секунд на префилл, 8 токенов в секунду. Это не разработка — это наблюдение за высыханием краски.
Но проблема глубже. Cursor задумывался как облачный продукт. Его архитектура, контекстное окно, система плагинов — все заточено под быстрые облачные вызовы к GPT-4. Когда вы подключаете локальную модель, вы пытаетесь впихнуть квадратный кол в круглое отверстие.
Главная проблема: Cursor отправляет весь контекст проекта при каждом запросе. Для облачной модели это 1-2 секунды. Для локальной — 10-20 секунд ожидания. Каждый раз.
Три подхода к решению: от простого к радикальному
1Модифицируем существующую IDE
Самый простой путь — взять то, что уже работает, и добавить локальные LLM. Здесь есть два лагеря: VS Code и его форки против минималистичных редакторов.
Continue.dev — это расширение для VS Code, которое превращает его в почти-Cursor. Но с важным отличием: оно изначально заточено под локальные модели. Установил, настроил endpoint к Ollama или LM Studio, и работает.
| Инструмент | Плюсы | Минусы | Для кого |
|---|---|---|---|
| Continue.dev | Интеграция с VS Code, умное управление контекстом | Требует настройки, не так красиво как Cursor | Те, кто не хочет менять привычный редактор |
| Windsurf | Специализирован под ИИ, быстрый интерфейс | Закрытый код, возможна подписка в будущем | Профессионалы, готовые платить за качество |
| Cursor-free | Открытый аналог Cursor, настраиваемый | Сыроват, требует технических навыков | Хакеры и энтузиасты open source |
Проблема с VS Code подходами — они наследуют его архитектурные ограничения. Контекст все равно передается целиком. Но Continue.dev хотя бы пытается его оптимизировать.
Практический совет: если выбираете этот путь, обязательно настройте контекстное окно. Ограничьте его 2-3 открытыми файлами, отключите автоматическую отправку всей структуры проекта.
2Специализированные редакторы с локальным ИИ
Здесь начинается интересное. Редакторы, которые с нуля создавались для работы с локальными LLM. Они не пытаются быть универсальными IDE — они решают конкретную задачу: писать код с помощью локальной модели.
Bloop — мой личный фаворит 2026 года. Разработчики поняли простую истину: если модель локальная, интерфейс должен это учитывать. Вместо постоянной отправки контекста, Bloop использует индексацию проекта и RAG-подход.
Как это работает? Вы открываете проект. Bloop индексирует его один раз. Когда вы задаете вопрос о коде, он не отправляет все файлы в модель. Вместо этого он ищет релевантные фрагменты через семантический поиск и отправляет только их.
# Вот что происходит в Bloop под капотом:
# 1. Индексация проекта при открытии
index = create_vector_index(project_files)
# 2. При запросе пользователя:
query = "Как работает функция process_data?"
relevant_chunks = semantic_search(query, index, top_k=3) # Только 3 релевантных фрагмента
# 3. В модель отправляется только это:
context = "\n".join(relevant_chunks)
prompt = f"Context:\n{context}\n\nQuestion: {query}"
response = local_llm.generate(prompt)Результат? Время префилла сокращается с 15 секунд до 2-3. Модель получает именно то, что нужно, а не мегабайты кода.
Cursor пытался добавить нечто подобное в версии 0.35, но реализация получилась кривой. Они все равно отправляют полный контекст, просто «маскируют» его от пользователя.
3Радикальный путь: агентные системы
Самый продвинутый подход — вообще отказаться от IDE с встроенным ИИ. Вместо этого использовать специализированные агенты, которые работают с вашим кодом через API.
Вспомните статью про агентов для локальных LLM. Там я рассказывал о инструментах вроде Aider, Sweep, GPT Engineer. В 2026 году эти инструменты эволюционировали.
Теперь это не просто «запрос-ответ». Это полноценные системы, которые:
- Анализируют проект целиком один раз
- Строят план изменений
- Выполняют изменения через файловую систему
- Тестируют результат
- Предлагают правки
Вы работаете в любимом редакторе (Vim, VS Code, Zed). Агент работает в фоне. Вы даете задачу: «Добавь валидацию email в форму регистрации». Агент анализирует проект, находит нужные файлы, вносит изменения, запускает тесты, показывает результат.
Сравнительная таблица: что выбрать в 2026
| Решение | Скорость (префилл) | Качество кода | Сложность настройки | Цена | Мой вердикт |
|---|---|---|---|---|---|
| Cursor + локальная LLM | 10-20 сек | Высокое | Средняя | $20/мес + железо | ❌ Бессмысленно |
| VS Code + Continue.dev | 3-5 сек | Высокое | Низкая | Бесплатно | ✅ Лучший компромисс |
| Bloop | 1-2 сек | Среднее | Очень низкая | Бесплатно | ✅ Для быстрых задач |
| Агенты (Aider) | 30-60 сек | Очень высокое | Высокая | Бесплатно | ✅ Для сложных задач |
| Windsurf | 2-3 сек | Высокое | Низкая | Платно (от $15) | ⚠️ Если деньги не проблема |
Какие модели реально работают в 2026
Все эти инструменты бесполезны, если модель тупит. За последний год появилось поколение кодеров, которые действительно понимают контекст.
Qwen2.5-Coder-32B-Instruct — все еще работает, но требует 32+ GB RAM. Для Mac M4 Pro с 64GB — отлично.
DeepSeek-Coder-V3 — вышел в конце 2025, поддерживает 128K контекст. Безумно умный, но требует серьезного железа.
Codestral-Mamba-12B — темная лошадка 2026. Всего 12 миллиардов параметров, но благодаря архитектуре Mamba работает быстрее 32B моделей. Идеально для локального использования.
Но вот секрет, о котором мало кто говорит: размер модели не равен качеству кода. 7B модель, правильно настроенная, часто пишет лучше, чем 32B «из коробки».
Важно: не гонитесь за размером. Для большинства задач программирования хватает 12-14B моделей. Они быстрее, требуют меньше памяти, а качество кода отличается на 10-15%.
Настройка, о которой молчат все гайды
Вы установили редактор, скачали модель. Все работает, но медленно. Вот что нужно сделать:
1Оптимизация контекста
Большинство инструментов по умолчанию отправляют слишком много. Ограничьте контекст 2000-3000 токенов. Да, модель будет видеть меньше. Но она будет работать в 5 раз быстрее.
// Пример конфигурации для Continue.dev
{
"context": {
"maxTokens": 3000,
"include": [
"currentFile",
"openFiles"
],
"exclude": [
"node_modules",
".git",
"*.log"
]
}
}2Температура и другие параметры
Для программирования температура должна быть низкой. 0.1-0.3 максимум. Вы не хотите креативности, вы хотите точного кода.
Top-p (nucleus sampling) — 0.9-0.95. Это дает баланс между предсказуемостью и разнообразием.
3Системный промпт
Самая недооцененная настройка. Модели не знают, что они должны писать лаконичный, работающий код. Скажите им об этом.
Ты — опытный разработчик. Пиши только рабочий код.
- Не добавляй лишних комментариев
- Не объясняй код, если не просят
- Следуй стилю существующего кода
- Если не уверен — спрашивай
- Пиши минимальный рабочий кодЧто будет через год: мои прогнозы
Тренд 2026 года — специализация. Универсальные IDE с ИИ умирают. Вместо них появляются:
- Редакторы для конкретных языков (отдельно для Python, отдельно для Rust)
- Инструменты, которые работают на уровне AST, а не текста
- Локальные модели, обученные на конкретных codebase
Самый интересный проект, который я вижу — Zed с нативной интеграцией локальных LLM. Разработчики Zed поняли то, что не поняли в Cursor: скорость интерфейса критична для ИИ-ассистента.
Когда вы ждете ответа 10 секунд, вы теряете фокус. Когда ждете 0.5 секунды — вы остаетесь в потоке. Разница между «медленным помощником» и «частью мышления».
Еще один тренд — гибридные системы. Локальная модель для быстрых подсказок (автодополнение, рефакторинг в одном файле), облачная — для сложных задач (архитектура, поиск багов во всем проекте).
Мой совет на 2026: не ищите замену Cursor. Ищите инструмент, который решает вашу конкретную задачу. Для быстрого кодинга — Bloop. Для рефакторинга — агенты. Для обучения — VS Code с Continue.dev.
Чего точно не стоит делать
Я видел десятки попыток заставить Cursor работать с локальными моделями. Большинство — пустая трата времени.
Не пытайтесь:
- Настраивать сложные прокси-сервера между Cursor и Ollama
- Писать кастомные плагины для оптимизации контекста
- Ждать, что следующее обновление Cursor «починит» работу с локальными моделями
Разработчики Cursor четко дали понять: их бизнес-модель — это подписка на облачные модели. Локальные LLM для них — фича для галочки, а не основной фокус.
Вместо этого потратьте время на изучение инструментов из этой статьи. Первый час покажется непривычным. Через день вы забудете, что такое счет за ИИ в $200 в месяц.
И последнее: лучшая альтернатива Cursor — это не другой редактор. Это умение писать код без постоянных подсказок. Локальные LLM должны быть костылем, а не инвалидной коляской. Используйте их для рутинных задач, но не позволяйте атрофироваться собственным навыкам.
Потому что через год появятся новые инструменты. И новые проблемы. А умение решать задачи останется с вами.