Настройка OpenAI Codex IDE в VSCode с локальным Ollama 2026 | AiManual
AiManual Logo Ai / Manual.
11 Фев 2026 Гайд

OpenAI Codex IDE в VSCode с локальным Ollama: заставляем работать то, что не должно

Полный гайд по подключению плагина OpenAI Codex IDE в VSCode к локальному Ollama. Конфигурация config.toml, модель qwen3-coder-next, офлайн-разработка без облак

Почему плагин OpenAI Codex IDE не хочет работать с локальным Ollama (и как его заставить)

Вы установили OpenAI Codex IDE в VSCode. Вы запустили Ollama локально. Вы знаете, что они должны работать вместе. Но они не работают. Плагин упорно просит API-ключ OpenAI, а на ваши попытки указать локальный эндпоинт смотрит как на бред сумасшедшего.

Знакомо? Добро пожаловать в клуб. Разработчики плагина явно не рассчитывали, что кто-то захочет использовать его с чем-то кроме облачных сервисов OpenAI. Но мы-то знаем, что облака — это ловушка. После истории с утечками промптов через Copilot и вечной слежкой за кодом, о которой я писал в "Чемодане без ручки", доверять свой код чужим серверам стало просто глупо.

Важно: OpenAI Codex IDE — это не официальный плагин от OpenAI. Это стороннее расширение, которое эмулирует поведение Codex через API OpenAI. Именно поэтому его так сложно заставить работать с чем-то другим.

Что на самом деле происходит под капотом

Плагин ищет конфигурационный файл config.toml в определенных местах. По умолчанию он настроен только на работу с OpenAI API. Но если копнуть глубже (а мы копнем), оказывается, что можно перенаправить запросы куда угодно. В том числе — на ваш локальный Ollama сервер.

Проблема в том, что Ollama использует свой API, несовместимый с OpenAI. Нужен адаптер. Или правильная конфигурация. Или и то, и другое.

💡
Если вы уже пробовали другие способы локальной интеграции, вроде тех, что описаны в "Паранойе в коде", то знаете: каждый метод имеет свои костыли. Этот — не исключение.

1 Подготовка: что должно быть установлено

Прежде чем что-то настраивать, убедитесь, что у вас есть:

  • VSCode (последняя версия на февраль 2026)
  • Расширение "OpenAI Codex IDE" из Marketplace
  • Ollama (версия 0.5.0 или новее)
  • Модель для кодирования в Ollama (рекомендую qwen3-coder-next:7b или codellama:13b)
  • Терминал с доступом к командной строке

Проверьте, что Ollama работает:

ollama serve

В другом терминале:

ollama run qwen3-coder-next:7b

Если модель отвечает — Ollama работает. Если нет — сначала разберитесь с ним. Без работающего Ollama все дальнейшие шаги бессмысленны.

2 Главный трюк: создаем config.toml

Вот где начинается магия. Плагин ищет конфигурационный файл в нескольких местах. Самый надежный — создать его в домашней директории:

nano ~/.codex-ide/config.toml

Или, если вы на Windows:

notepad %USERPROFILE%\.codex-ide\config.toml

Теперь самое важное — содержимое. Вот конфигурация, которая заставит плагин говорить с Ollama:

[openai]
# Это обманка — мы указываем локальный адрес, но говорим, что это OpenAI
api_base = "http://localhost:11434/v1"
api_key = "ollama" # Любая строка, Ollama её проигнорирует
model = "qwen3-coder-next:7b"

[codex]
enabled = true
temperature = 0.2
max_tokens = 1024
stop_sequences = ["\n\n", ""]

[ui]
theme = "dark"
show_status_bar = true

Ключевой момент: api_base = "http://localhost:11434/v1". Путь /v1 критически важен — это эндпоинт совместимости с OpenAI API, который предоставляет Ollama начиная с версии 0.4.0. Без него ничего не заработает.

3 Проверка: заставляем Ollama говорить на языке OpenAI

Ollama по умолчанию запускает свой API на порту 11434. Но совместимый с OpenAI эндпоинт должен быть доступен. Проверим:

curl http://localhost:11434/v1/models

Если видите JSON с списком моделей — отлично. Если ошибку — возможно, у вас старая версия Ollama. Обновите:

ollama --version
# Если меньше 0.4.0 — качайте новую версию с официального сайта

Теперь проверьте, что модель загружена в Ollama:

ollama list

Если qwen3-coder-next:7b нет в списке — скачайте:

ollama pull qwen3-coder-next:7b
💡
На февраль 2026 года qwen3-coder-next — одна из лучших моделей для кодирования в своем классе (7B параметров). Она понимает контекст до 128К токенов и отлично работает на современных видеокартах или даже на CPU с достаточным количеством RAM.

4 Настройка плагина в VSCode

Откройте VSCode. Перейдите в настройки расширения OpenAI Codex IDE. Вот что нужно изменить:

  1. Найдите "OpenAI Codex IDE: Config Path"
  2. Укажите путь к вашему config.toml файлу
  3. В "OpenAI API Key" введите "ollama" (или любую строку)
  4. В "Model" оставьте пустым — модель будет браться из config.toml

Перезапустите VSCode. Серьезно, не пытайтесь просто перезагрузить окно — закройте полностью и откройте заново. Плагин иногда кэширует конфигурацию слишком агрессивно.

Что делать, если все равно не работает (спойлер: так и будет в 30% случаев)

Плагин OpenAI Codex IDE — капризная штука. Вот самые частые проблемы и их решения:

Проблема Решение
"Invalid API key" В config.toml в api_key поставьте "ollama". В настройках плагина — тоже "ollama"
"Connection refused" Убедитесь, что Ollama запущен: ollama serve в отдельном терминале
Медленные ответы Уменьшите max_tokens в config.toml до 512. Или купите RTX 5090 (шучу, но не совсем)
Плагин игнорирует config.toml Проверьте права на файл. На Linux: chmod 644 ~/.codex-ide/config.toml

Почему это вообще работает (технические детали для любопытных)

Ollama с версии 0.4.0 реализует частичную совместимость с OpenAI API. Не полную, но достаточную для базовых операций. Когда плагин отправляет запрос на http://localhost:11434/v1/chat/completions, Ollama переводит его в свой формат, передает модели, а результат переводит обратно в формат OpenAI.

Это не идеально. Некоторые параметры игнорируются. Температура работает иначе. Стоп-последовательности могут вести себя странно. Но для автодополнения кода — достаточно.

Если вам нужна более стабильная интеграция, посмотрите LMStudio-Ollama — это форк VSCode со встроенной поддержкой локальных моделей. Но там свои тараканы.

Альтернативы: когда этот метод не подходит

Если после всех танцев с бубном плагин все равно отказывается работать, есть другие варианты:

  • Continue — расширение для VSCode с нативной поддержкой Ollama
  • Tabby — аналог GitHub Copilot, но с локальными моделями
  • Самописный LSP-сервер — для хардкорных, кто не боится написать 500 строк кода на Python

Но у каждого свои недостатки. Continue иногда глючит с большими контекстами. Tabby требует тонкой настройки. А самописный LSP... ну, вы поняли.

Совет: если вы работаете с коммерческим кодом и параноите насчет утечек (а после 2025 года это уже не паранойя, а здравый смысл), локальные модели — единственный вариант. Даже если приходится возиться с конфигами.

Финальный чек-лист перед тем, как сломать клавиатуру

  1. Ollama запущен? ollama serve в терминале
  2. Модель загружена? ollama list показывает qwen3-coder-next:7b
  3. Config.toml создан? В правильной директории с правильным содержимым?
  4. Плагин перезагружен? VSCode полностью закрыт и открыт заново?
  5. Порт 11434 свободен? Ничего другого не слушает на этом порту?

Если все пять пунктов — да, а плагин все равно не работает... Возможно, стоит пересмотреть жизненные приоритеты. Или попробовать другой плагин.

Но если заработало — поздравляю. Теперь у вас есть AI-ассистент для кода, который не шпионит, не требует подписки и работает даже без интернета. Цена: несколько часов настройки и нервных клеток. Оно того стоит? Спросите у своего кода через месяц.

P.S. Если через полгода OpenAI Codex IDE обновится и сломает эту конфигурацию — не удивляйтесь. Таков удел тех, кто идет против течения. Зато ваш код останется вашим. В эпоху, когда корпорации пожирают интеллектуальную собственность разработчиков, это уже победа.