Настройка Qwen3-coder-next в LM Studio как Anthropic бэкенд на Mac | AiManual
AiManual Logo Ai / Manual.
22 Фев 2026 Гайд

Qwen3-coder-next на Mac: превращаем LM Studio в локальный Anthropic за 15 минут

Пошаговая настройка Qwen3-coder-next в LM Studio на Mac. Конфигурация settings.json, MLX квантование, работа с Anthropic API. Полный гайд на 2026 год.

Почему все так сложно с локальными моделями для кодинга?

Вот сценарий, который знаком каждому, кто пытался запустить локальную модель для программирования: скачал Qwen3-coder-next, запустил в LM Studio, а она молчит как рыба. Или выдает какую-то ерунду. Или вообще падает с ошибкой 'Unknown StringValue filter: safe'. Знакомо?

Проблема в том, что большинство гайдов устарели еще до публикации. На 22.02.2026 ситуация с Qwen3-coder-next изменилась кардинально - модель стала значительно стабильнее, но требует специфической настройки под Mac с Apple Silicon.

Важно: Если вы сталкивались с ошибкой 'Unknown StringValue filter: safe', сначала прочитайте нашу статью по исправлению этой проблемы. Без этого дальнейшая настройка бессмысленна.

Зачем превращать LM Studio в Anthropic-бэкенд?

Ответ прост: совместимость. Десятки инструментов (Cursor, Windsurf, Continue.dev) уже научились работать с Anthropic API. Если ваш локальный сервер выглядит как утка (Anthropic API), крякает как утка (отвечает в том же формате), то эти инструменты будут работать с ним как с уткой. И вам не придется переписывать половину своей инфраструктуры.

Но есть нюанс - точнее, целая куча нюансов. Qwen3-coder-next на Mac через LM Studio ведет себя не так, как ожидается. Особенно если использовать стандартные настройки.

Что у нас в арсенале на 22.02.2026

Последняя версия LM Studio (1.9.3) на момент написания статьи поддерживает:

  • Нативный MLX бэкенд для Apple Silicon (это важно - не эмуляция, а нативная работа)
  • Поддержку Qwen3-coder-next-32B-Instruct-Q4_K_M (самая стабильная квантованная версия на сегодня)
  • Anthropic API совместимость через встроенный сервер
  • Автоматическое определение контекстного окна
💡
MLX - это Apple-специфичный фреймворк для машинного обучения. На M3 Max он работает в 3-4 раза быстрее llama.cpp. Но требует правильной настройки.

Шаг 1: Качаем правильную модель

Первая ошибка, которую делают 90% пользователей - качают не ту версию. На 22.02.2026 работают следующие варианты:

Модель Размер Стабильность Скорость на M3 Max
Qwen3-coder-next-32B-Instruct-Q4_K_M ~18GB Отличная 25-30 токенов/с
Qwen3-coder-next-14B-Instruct-Q8_0 ~15GB Хорошая 40-45 токенов/с
Qwen3-coder-next-7B-Instruct-Q8_0 ~8GB Идеальная 60+ токенов/с

Лично я рекомендую 32B Q4_K_M. Почему? Потому что 7B версия хоть и быстрая, но слишком тупая для сложных задач. А 32B с квантованием Q4_K_M дает баланс между качеством и скоростью.

Шаг 2: Магический settings.json

Вот где собака зарыта. Стандартные настройки LM Studio не работают для Qwen3-coder-next как Anthropic бэкенд. Нужно править конфигурационный файл вручную.

Находим его здесь: ~/Library/Application Support/LM Studio/config/settings.json

Перед тем как показать рабочий вариант, давайте посмотрим, как НЕ надо делать:

{
  "server": {
    "port": 1234,
    "host": "localhost"
  },
  "models": {
    "default": "qwen3-coder-next"
  }
}

Этот конфиг сломается при первом же запросе. Почему? Потому что Qwen3-coder-next требует специфичных параметров для работы с Anthropic API.

1 Рабочий конфиг для Anthropic совместимости

{
  "server": {
    "port": 1234,
    "host": "0.0.0.0",
    "api_key": "lm-studio",
    "completion_path": "/v1/completions",
    "chat_completion_path": "/v1/chat/completions",
    "embeddings_path": "/v1/embeddings",
    "cors_allow_origin": "*",
    "cors_allow_methods": "GET, POST, OPTIONS",
    "cors_allow_headers": "Content-Type, Authorization",
    "cors_max_age": 86400
  },
  "model": {
    "loader": "mlx",
    "model": "Qwen3-coder-next-32B-Instruct-Q4_K_M",
    "context_length": 32768,
    "gpu_layers": 0,
    "mmap": true,
    "mlock": false,
    "low_vram": false,
    "no_mmap": false,
    "no_mul_mat_q": false,
    "no_offload_kqv": false,
    "n_gpu_layers": 0,
    "rope_freq_base": 10000,
    "rope_freq_scale": 1,
    "numa": false,
    "verbose": false
  },
  "anthropic_compatibility": {
    "enabled": true,
    "api_base": "http://localhost:1234/v1",
    "api_key": "lm-studio",
    "model_name": "claude-3-opus-20240229",
    "max_tokens": 4096,
    "temperature": 0.7,
    "top_p": 0.9,
    "stream": true
  },
  "generation": {
    "max_tokens": 4096,
    "temperature": 0.7,
    "top_p": 0.9,
    "min_p": 0.05,
    "typical_p": 1.0,
    "repeat_penalty": 1.1,
    "presence_penalty": 0.0,
    "frequency_penalty": 0.0,
    "mirostat": 0,
    "mirostat_tau": 5.0,
    "mirostat_eta": 0.1,
    "seed": -1,
    "stop": ["<|im_end|>", "<|endoftext|>", "<|im_start|>"]
  }
}

Давайте разберем ключевые моменты:

1. Зачем host: "0.0.0.0" вместо localhost?

Если вы планируете подключаться к серверу с других устройств в сети (например, с Windows-машины или через Docker), localhost не сработает. 0.0.0.0 означает "слушай на всех интерфейсах".

2. Почему loader: "mlx"?

На Mac с Apple Silicon MLX дает прирост скорости в 3-4 раза по сравнению с llama.cpp. Но есть нюанс: если у вас старая версия LM Studio (до 1.9.0), MLX может не работать. Проверьте версию.

Производительность: На M3 Max с 128GB RAM 32B модель через MLX выдает 25-30 токенов/с. Через llama.cpp - всего 8-10 токенов/с. Разница ощутимая.

3. Зачем anthropic_compatibility.model_name: "claude-3-opus-20240229"?

Это трюк. Многие инструменты (типа Cursor) жестко завязаны на определенные имена моделей Anthropic. Если вы скажете им, что у вас "Qwen3-coder-next", они просто не поймут, как с вами работать. А "claude-3-opus-20240229" - это имя, которое понимают все.

На самом деле, это просто строка. Сервер LM Studio подменяет ее на реальную модель, но клиенты думают, что общаются с Claude.

Шаг 3: Тестируем подключение

После сохранения settings.json перезапускаем LM Studio. Заходим в Server → Start Server.

Теперь проверяем работу через curl:

curl http://localhost:1234/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer lm-studio" \
  -d '{
    "model": "claude-3-opus-20240229",
    "messages": [
      {
        "role": "user",
        "content": "Напиши функцию на Python для проверки, является ли число простым"
      }
    ],
    "temperature": 0.7,
    "max_tokens": 1000,
    "stream": false
  }'

Если все настроено правильно, получите JSON-ответ с кодом функции.

Шаг 4: Подключаем Cursor (или другой инструмент)

В Cursor заходим в Settings → AI Providers → Custom API. Заполняем:

  • Base URL: http://localhost:1234/v1
  • API Key: lm-studio
  • Model: claude-3-opus-20240229

В Windsurf настройки похожие, но находятся в другом месте: Settings → AI → Custom Endpoint.

Проблемы, с которыми столкнетесь (и как их решить)

1. "Model not found" при запросе

Проверьте, что модель действительно загружена в LM Studio. Иногда LM Studio не переключается на указанную модель автоматически. Зайдите в Models → Load Model и выберите Qwen3-coder-next вручную.

2. Медленная генерация

Если скорость ниже 20 токенов/с на M3 Max:

  1. Убедитесь, что используете MLX, а не llama.cpp
  2. Проверьте, что не включен low_vram: true
  3. Закройте другие тяжелые приложения (особенно Xcode)
  4. Если у вас меньше 64GB RAM, рассмотрите 14B или 7B версию

3. Обрывается контекст

Qwen3-coder-next поддерживает 32K токенов, но на практике лучше ограничиться 16K. Почему? Потому что с ростом контекста растет потребление памяти и падает скорость. В конфиге выше я поставил max_tokens: 4096 - этого достаточно для большинства задач.

Если нужен больший контекст, увеличьте max_tokens, но будьте готовы к замедлению.

4. Tool calling не работает

Это известная проблема Qwen3-coder-next. Модель заявлена как поддерживающая tool calling, но на практике он часто ломается. Если вам критично нужен tool calling, посмотрите нашу статью про исправление этой проблемы.

Производительность: цифры на 22.02.2026

Я протестировал на MacBook Pro M3 Max с 128GB RAM:

Модель Квантование Токенов/с Память Качество кода
Qwen3-coder-next-32B Q4_K_M 25-30 ~45GB Отличное
Qwen3-coder-next-14B Q8_0 40-45 ~35GB Хорошее
Qwen3-coder-next-7B Q8_0 60+ ~18GB Среднее

Лично я остановился на 32B Q4_K_M. 25 токенов/с - это достаточно быстро для интерактивной работы, а качество кода заметно лучше, чем у 14B версии.

Что делать, если LM Studio все равно глючит?

Бывает. Особенно с новыми версиями. В таком случае есть два пути:

Вариант 1: llama.cpp напрямую

Скачиваете llama.cpp, компилируете под Mac, запускаете сервер:

./server -m ./models/Qwen3-coder-next-32B-Instruct-Q4_K_M.gguf \
  -c 32768 \
  --host 0.0.0.0 \
  --port 8080 \
  -ngl 99

Но это сложнее в настройке, особенно с Anthropic совместимостью.

Вариант 2: vLLM + MLX

Если вы готовы повозиться, можно собрать vLLM с поддержкой MLX. Это даст лучшую производительность, но требует навыков сборки из исходников. У нас есть статья про настройку vLLM на Mac, но она сложнее.

Стоит ли овчинка выделки?

Да. После настройки вы получаете:

  • Локальный кодинг-агент без ограничений по API
  • Полную приватность - ваш код никуда не уходит
  • Стоимость $0 после первоначальной настройки
  • Совместимость со всеми инструментами, которые работают с Anthropic API

Но есть и минусы:

  • Требуется мощный Mac (минимум 32GB RAM для 7B, лучше 64GB+ для 32B)
  • Скорость ниже, чем у облачных API
  • Нужно следить за обновлениями моделей и LM Studio

Мой вердикт: если у вас Mac с 64GB+ RAM и вы кодите по 4+ часов в день - настройка окупится за месяц. Если у вас базовый MacBook Air с 8GB RAM - даже не начинайте.

Что будет дальше?

На 22.02.2026 уже видны тренды:

  1. Модели становятся меньше при том же качестве (благодаря лучшим квантованиям)
  2. MLX развивается быстрее llama.cpp для Apple Silicon
  3. Интеграция с инструментами становится проще (стандартизация API)

Через год, вероятно, 32B модель будет работать на MacBook Air. А сегодня она требует топового MacBook Pro.

Совет напоследок: не зацикливайтесь на одной модели. Периодически проверяйте новые версии Qwen и других моделей. То, что сегодня работает через костыли, завтра может заработать из коробки.

И да, сохраните этот settings.json. Он спасет вам кучу времени, когда в следующий раз будете переустанавливать систему.