Почему плагин OpenAI Codex IDE не хочет работать с локальным Ollama (и как его заставить)
Вы установили OpenAI Codex IDE в VSCode. Вы запустили Ollama локально. Вы знаете, что они должны работать вместе. Но они не работают. Плагин упорно просит API-ключ OpenAI, а на ваши попытки указать локальный эндпоинт смотрит как на бред сумасшедшего.
Знакомо? Добро пожаловать в клуб. Разработчики плагина явно не рассчитывали, что кто-то захочет использовать его с чем-то кроме облачных сервисов OpenAI. Но мы-то знаем, что облака — это ловушка. После истории с утечками промптов через Copilot и вечной слежкой за кодом, о которой я писал в "Чемодане без ручки", доверять свой код чужим серверам стало просто глупо.
Важно: OpenAI Codex IDE — это не официальный плагин от OpenAI. Это стороннее расширение, которое эмулирует поведение Codex через API OpenAI. Именно поэтому его так сложно заставить работать с чем-то другим.
Что на самом деле происходит под капотом
Плагин ищет конфигурационный файл config.toml в определенных местах. По умолчанию он настроен только на работу с OpenAI API. Но если копнуть глубже (а мы копнем), оказывается, что можно перенаправить запросы куда угодно. В том числе — на ваш локальный Ollama сервер.
Проблема в том, что Ollama использует свой API, несовместимый с OpenAI. Нужен адаптер. Или правильная конфигурация. Или и то, и другое.
1 Подготовка: что должно быть установлено
Прежде чем что-то настраивать, убедитесь, что у вас есть:
- VSCode (последняя версия на февраль 2026)
- Расширение "OpenAI Codex IDE" из Marketplace
- Ollama (версия 0.5.0 или новее)
- Модель для кодирования в Ollama (рекомендую qwen3-coder-next:7b или codellama:13b)
- Терминал с доступом к командной строке
Проверьте, что Ollama работает:
ollama serve
В другом терминале:
ollama run qwen3-coder-next:7b
Если модель отвечает — Ollama работает. Если нет — сначала разберитесь с ним. Без работающего Ollama все дальнейшие шаги бессмысленны.
2 Главный трюк: создаем config.toml
Вот где начинается магия. Плагин ищет конфигурационный файл в нескольких местах. Самый надежный — создать его в домашней директории:
nano ~/.codex-ide/config.toml
Или, если вы на Windows:
notepad %USERPROFILE%\.codex-ide\config.toml
Теперь самое важное — содержимое. Вот конфигурация, которая заставит плагин говорить с Ollama:
[openai]
# Это обманка — мы указываем локальный адрес, но говорим, что это OpenAI
api_base = "http://localhost:11434/v1"
api_key = "ollama" # Любая строка, Ollama её проигнорирует
model = "qwen3-coder-next:7b"
[codex]
enabled = true
temperature = 0.2
max_tokens = 1024
stop_sequences = ["\n\n", ""]
[ui]
theme = "dark"
show_status_bar = true
Ключевой момент: api_base = "http://localhost:11434/v1". Путь /v1 критически важен — это эндпоинт совместимости с OpenAI API, который предоставляет Ollama начиная с версии 0.4.0. Без него ничего не заработает.
3 Проверка: заставляем Ollama говорить на языке OpenAI
Ollama по умолчанию запускает свой API на порту 11434. Но совместимый с OpenAI эндпоинт должен быть доступен. Проверим:
curl http://localhost:11434/v1/models
Если видите JSON с списком моделей — отлично. Если ошибку — возможно, у вас старая версия Ollama. Обновите:
ollama --version
# Если меньше 0.4.0 — качайте новую версию с официального сайта
Теперь проверьте, что модель загружена в Ollama:
ollama list
Если qwen3-coder-next:7b нет в списке — скачайте:
ollama pull qwen3-coder-next:7b
4 Настройка плагина в VSCode
Откройте VSCode. Перейдите в настройки расширения OpenAI Codex IDE. Вот что нужно изменить:
- Найдите "OpenAI Codex IDE: Config Path"
- Укажите путь к вашему config.toml файлу
- В "OpenAI API Key" введите "ollama" (или любую строку)
- В "Model" оставьте пустым — модель будет браться из config.toml
Перезапустите VSCode. Серьезно, не пытайтесь просто перезагрузить окно — закройте полностью и откройте заново. Плагин иногда кэширует конфигурацию слишком агрессивно.
Что делать, если все равно не работает (спойлер: так и будет в 30% случаев)
Плагин OpenAI Codex IDE — капризная штука. Вот самые частые проблемы и их решения:
| Проблема | Решение |
|---|---|
| "Invalid API key" | В config.toml в api_key поставьте "ollama". В настройках плагина — тоже "ollama" |
| "Connection refused" | Убедитесь, что Ollama запущен: ollama serve в отдельном терминале |
| Медленные ответы | Уменьшите max_tokens в config.toml до 512. Или купите RTX 5090 (шучу, но не совсем) |
| Плагин игнорирует config.toml | Проверьте права на файл. На Linux: chmod 644 ~/.codex-ide/config.toml |
Почему это вообще работает (технические детали для любопытных)
Ollama с версии 0.4.0 реализует частичную совместимость с OpenAI API. Не полную, но достаточную для базовых операций. Когда плагин отправляет запрос на http://localhost:11434/v1/chat/completions, Ollama переводит его в свой формат, передает модели, а результат переводит обратно в формат OpenAI.
Это не идеально. Некоторые параметры игнорируются. Температура работает иначе. Стоп-последовательности могут вести себя странно. Но для автодополнения кода — достаточно.
Если вам нужна более стабильная интеграция, посмотрите LMStudio-Ollama — это форк VSCode со встроенной поддержкой локальных моделей. Но там свои тараканы.
Альтернативы: когда этот метод не подходит
Если после всех танцев с бубном плагин все равно отказывается работать, есть другие варианты:
- Continue — расширение для VSCode с нативной поддержкой Ollama
- Tabby — аналог GitHub Copilot, но с локальными моделями
- Самописный LSP-сервер — для хардкорных, кто не боится написать 500 строк кода на Python
Но у каждого свои недостатки. Continue иногда глючит с большими контекстами. Tabby требует тонкой настройки. А самописный LSP... ну, вы поняли.
Совет: если вы работаете с коммерческим кодом и параноите насчет утечек (а после 2025 года это уже не паранойя, а здравый смысл), локальные модели — единственный вариант. Даже если приходится возиться с конфигами.
Финальный чек-лист перед тем, как сломать клавиатуру
- Ollama запущен?
ollama serveв терминале - Модель загружена?
ollama listпоказывает qwen3-coder-next:7b - Config.toml создан? В правильной директории с правильным содержимым?
- Плагин перезагружен? VSCode полностью закрыт и открыт заново?
- Порт 11434 свободен? Ничего другого не слушает на этом порту?
Если все пять пунктов — да, а плагин все равно не работает... Возможно, стоит пересмотреть жизненные приоритеты. Или попробовать другой плагин.
Но если заработало — поздравляю. Теперь у вас есть AI-ассистент для кода, который не шпионит, не требует подписки и работает даже без интернета. Цена: несколько часов настройки и нервных клеток. Оно того стоит? Спросите у своего кода через месяц.
P.S. Если через полгода OpenAI Codex IDE обновится и сломает эту конфигурацию — не удивляйтесь. Таков удел тех, кто идет против течения. Зато ваш код останется вашим. В эпоху, когда корпорации пожирают интеллектуальную собственность разработчиков, это уже победа.