Что это вообще такое и зачем оно нужно
Представьте: вы хотите AI-помощника в коде, но не хотите платить за Cursor (а он с 2025 года стал ощутимо дороже). Не хотите отправлять код в облако OpenAI. И вообще - хотите контролировать все самому. Вот примерно для таких параноиков и сделали xEditor.
Суть проста: редактор кода, который работает локально и цепляется к вашим LLM. Неважно, каким - Gemini через API, Qwen через Ollama, DeepSeek через что-то еще. Главное - не уходит в чужие облака.
Поддержка моделей: от Gemini Pro до Qwen2.5-Coder
Здесь xEditor делает правильный ход: не пытается изобрести свой формат, а использует уже существующие протоколы. На 23 января 2026 года поддерживает:
- Gemini через официальный Google API (Gemini 2.0 Pro уже работает, Gemini Ultra 2.0 - если у вас есть доступ)
- Qwen через OpenAI-совместимые эндпоинты (Qwen2.5-Coder-32B-Instruct показывает лучшие результаты)
- DeepSeek через их API (DeepSeek-Coder-V2-Lite-Base неплох для простых задач)
- Любые модели с OpenAI-совместимым API (что открывает дорогу к сотням вариантов)
Внимание: локальные модели через Ollama или LM Studio пока работают через костыли. Разработчики обещают нативную поддержку в версии 0.2.0. Пока что придется использовать локальный сервер с OpenAI-совместимым API.
Если у вас уже есть опыт работы с локальными моделями, вы оцените этот подход. Не нужно переучиваться - просто укажите endpoint и ключ API. Как в том самом модифицированном VS Code, только с более удобным интерфейсом.
Интерфейс: минимализм или недоработка?
Здесь начинаются первые разочарования. xEditor выглядит как... обычный текстовый редактор с боковой панелью для чата. Да, именно так. Никаких встроенных терминалов, как в Cursor. Никакой умной навигации по проекту. Просто редактор и AI-помощник рядом.
Но есть и плюсы:
- Работает быстро (потому что почти ничего не делает кроме редактирования)
- Не грузит систему (потребляет памяти как обычный текстовый редактор)
- Не пытается быть умнее, чем есть
Проблема в том, что иногда хочется, чтобы редактор был умнее. Например, когда нужно понять структуру проекта или найти все использования функции. xEditor этого не умеет. Вообще.
Работа с кодом: что умеет, а что нет
Начнем с хорошего: автодополнение на основе контекста работает неплохо. Особенно с Gemini 2.0 Pro - модель понимает, что вы пишете, и предлагает логичное продолжение. Не так круто, как в Cursor, но лучше, чем стандартный IntelliSense.
Chat-режим - вот где xEditor пытается блеснуть. Вы выделяете код, пишете промпт, и модель его меняет. Работает стабильно, но есть нюанс: промпты нужно писать очень конкретно. Модели не пытаются догадаться, что вы имели в виду. Сказали "оптимизируй" - получите микрооптимизации. Хотели рефакторинг - нужно было написать "сделай рефакторинг".
А теперь плохое: tool-calling. Точнее, его отсутствие. xEditor не умеет запускать команды терминала, не умеет искать в файлах, не умеет работать с Git. Это просто редактор с AI-помощником, который может менять код в текущем файле. Все.
Для сравнения: современные AI-агенты для локальных LLM уже умеют гораздо больше. Но они и сложнее в настройке.
Настройка: пять минут или пять часов?
Тут все зависит от того, какую модель вы выбрали. С Gemini - проще простого: скачали редактор, получили API-ключ в Google AI Studio, вставили. Работает через минуту.
С локальными моделями - сложнее. Нужно поднять сервер с OpenAI-совместимым API (например, через Ollama или text-generation-webui), убедиться, что он отвечает на правильные endpoint'ы, настроить CORS... В общем, не для новичков.
Разработчики обещают упростить этот процесс, но пока что xEditor - инструмент для тех, кто уже знаком с локальными LLM. Если вы только начинаете - лучше начать с чего-то попроще.
Производительность: работает ли на слабом железе?
Сам редактор - да. Он легкий, потребляет мало ресурсов. Но вот модели... Тут все зависит от того, где они работают.
Если используете облачные API (Gemini, DeepSeek), то производительность ограничена только вашим интернетом. Если локальные модели - то нужна хорошая видеокарта или много оперативки.
Интересный момент: xEditor неплохо работает даже на старых компьютерах, если использовать маленькие модели. Но тогда и качество помощи будет соответствующим. Как говорится, выбирайте два из трех: качество, скорость, бесплатность.
| Модель | Качество кода | Скорость ответа | Стоимость |
|---|---|---|---|
| Gemini 2.0 Pro | Отличное | Быстро | Платно |
| Qwen2.5-Coder-7B | Хорошее | Средне | Бесплатно |
| DeepSeek-Coder-V2-Lite | Удовлетворительное | Быстро | Бесплатно |
Кому подойдет xEditor (а кому нет)
Давайте честно: это инструмент для очень конкретной аудитории.
Подойдет если:
- Вы уже перетащили AI к себе на компьютер и ищете удобный редактор
- Хотите контролировать, куда уходит ваш код
- Готовы мириться с ограниченным функционалом ради простоты
- Используете в основном облачные API (потому что с локальными моделями пока сложно)
Не подойдет если:
- Нужен полноценный Cursor-заменитель с терминалом, Git и навигацией
- Хотите работать исключительно с локальными моделями без костылей
- Ждете встроенных агентов, которые сами исправят баги
- Работаете с большими проектами (xEditor плохо справляется с навигацией)
Что будет дальше (или не будет)
Разработчики анонсировали roadmap на 2026 год. Самые интересные пункты:
- Нативная поддержка Ollama и LM Studio (без костылей с API)
- Базовый tool-calling (хотя бы запуск терминальных команд)
- Улучшенная навигация по проекту
- Плагины для расширения функционала
Если все это реализуют, xEditor может стать серьезным конкурентом для Cursor в локальном сегменте. Но пока что это скорее proof of concept, чем готовый продукт.
Лично я бы поставил на то, что проект либо вырастет во что-то серьезное, либо затеряется среди десятков подобных инструментов. Рынок локальных AI-редакторов становится все теснее - посмотрите хотя бы на топ продвинутых приложений. Выживут сильнейшие.
Мой совет: если у вас есть время и интерес к экспериментам - попробуйте. Особенно если уже работаете с Gemini или Qwen. Но не переходите на xEditor как на основной редактор. Еще рано.
А самый интересный вопрос: что будет, когда в xEditor добавят поддержку действительно больших моделей вроде тех, что нужны для агентного кодирования на RTX 6000? Вот тогда может получиться что-то действительно стоящее.
Но пока что - следите за обновлениями. И держите под рукой свой старый добрый VS Code. На всякий случай.