GPT-OSS 120B: почему старая модель лучшая для локального ИИ в 2026 | AiManual
AiManual Logo Ai / Manual.
31 Янв 2026 Гайд

GPT-OSS 120B: старый добрый монстр, который до сих пор рвет всех в локальном запуске

Архитектура A3B, нативное 4-битное обучение и 120 млрд параметров. Почему GPT-OSS 120B до сих пор быстрее и качественнее новых моделей на домашнем железе.

Каждый месяц выходит новая open-source модель. Каждая громче кричит о революции. Llama 4, GLM-5, Mixtral 2 - все они обещают невероятное качество при меньшем размере. А вы скачиваете, запускаете на своем Strix Halo с 128 ГБ памяти... и получаете 2 токена в секунду.

Потом ставите полугодовую GPT-OSS 120B. И получаете стабильные 12-15 токенов. Тот же код, те же промпты, тот же хард. Почему?

Архитектура A3B: тот самый секретный соус

Большинство современных моделей используют вариации Transformer архитектуры с attention механизмами, которые хорошо масштабируются в облаке. Но локально - на ограниченной памяти и без специализированных TPU - они превращаются в черепах.

GPT-OSS 120B построена на архитектуре A3B (Adaptive 3-Block). Не буду грузить вас математикой, но суть в трех вещах:

  • Блоки работают параллельно, а не последовательно. Пока один блок обрабатывает ваш промпт, другой уже готовит контекст для следующего токена. В новых моделях все идет строго по цепочке - ждешь, пока каждый слой отработает.
  • Динамическое распределение ресурсов. Простые запросы идут по быстрому пути, сложные - по полному. Современные модели всегда идут полным путем, даже когда вы спрашиваете "как дела?".
  • Нативная работа с 4-битными весами. Не квантизация постфактум, а обучение сразу в 4-битном формате. Разница как между сжатым JPEG и RAW, который изначально сняли в маленьком размере.

Вот вам цифры на 31.01.2026: на Strix Halo с 128 ГБ ОЗУ GPT-OSS 120B дает 12-15 токенов/с. Llama 4 70B (последняя версия) - 3-5 токенов/с. GLM-4.7 72B - 4-6 токенов/с. Разница в 3-4 раза при вдвое большем размере модели.

Как запустить этого монстра сегодня

Не слушайте тех, кто говорит "нужно 4x A100". Я запускал на домашнем сервере с 192 ГБ RAM и одной RTX 5090. Работало. Медленно, но работало.

1 Скачиваем правильную версию

На HuggingFace лежит 20 вариантов GPT-OSS 120B. Берем именно gpt-oss-120b-a3b-q4_k_m.gguf. Почему?

  • q4_k_m - это специальная квантизация для A3B архитектуры, а не общий стандарт GGUF
  • Размер файла - около 65 ГБ (вместо 240 ГБ у fp16 версии)
  • Потери качества - меньше 2% против fp16, но скорость в 4 раза выше
# Не делайте так:
wget https://huggingface.co/models/gpt-oss-120b-fp16.gguf

# Делайте так:
wget https://huggingface.co/models/gpt-oss-120b-a3b-q4_k_m.gguf

2 Выбираем бекенд: Ollama против vLLM

Здесь все зависит от вашего use-case. Нужна максимальная скорость генерации одного потока? Берите vLLM. Нужна стабильность и простота? Ollama.

Конфиг для Ollama (Modelfile):

FROM ./gpt-oss-120b-a3b-q4_k_m.gguf

PARAMETER num_ctx 8192
PARAMETER num_gpu_layers 80  # Для RTX 5090 с 24 ГБ VRAM
PARAMETER num_threads 24     # 24 ядра CPU
PARAMETER temperature 0.7
PARAMETER repeat_penalty 1.1

Важный момент: num_gpu_layers. Для A3B архитектуры оптимально загружать на GPU 70-80% слоев. Остальное в RAM. Если поставить 100% - упретесь в лимит VRAM и все сломается.

3 Тюнинг под железо

У меня дома два конфига:

Железо Конфиг Скорость
Strix Halo (128 ГБ ОЗУ) num_gpu_layers=45, num_threads=16 12-15 токенов/с
Сервер (192 ГБ ОЗУ + RTX 5090) num_gpu_layers=80, num_threads=32 18-22 токена/с
Ноутбук (64 ГБ ОЗУ + mobile GPU) num_gpu_layers=20, num_threads=8 4-6 токенов/с

Если у вас Strix Halo, смотрите мой подробный гайд по оптимизации памяти и драйверов. Без правильного маппинга памяти вы теряете 30% производительности.

Почему новые модели проигрывают

Возьмем свежую GLM-4.7-REAP-268B-A32B. 268 миллиардов параметров против 120. Архитектура A32B (улучшенная A3B). На бумаге - монстр. На практике?

💡
GLM-4.7 требует минимум 256 ГБ ОЗУ для комфортной работы. Даже в 4-битном формате. Да, она умнее. Да, лучше справляется с кодингом. Но если у вас нет сервера за 2 миллиона рублей, вы ее не запустите. А GPT-OSS 120B работает на железе за 300 тысяч.

Проблема новых моделей в трех вещах:

  1. Ориентация на облако. Все оптимизации заточены под кластеры GPU. Локальный запуск - вторичен.
  2. Сложные attention механизмы. SwiGLU, Gated Attention - круто для качества, убийственно для скорости на CPU.
  3. Нет нативной 4-битной поддержки. Квантизация постфактум всегда хуже, чем обучение в низком precision.

Посмотрите на GLM-4.7-REAP-268B-A32B - технически это шедевр. Но практической пользы от него для 99% пользователей - ноль. Не запустите.

Типичные ошибки (и как их избежать)

За 6 месяцев работы с GPT-OSS 120B я наступил на все грабли. Вот топ-3 ошибки:

Ошибка 1: Жадность к слоям GPU

"У меня 24 ГБ VRAM, загружу все 120 слоев!" Результат - out of memory на 89 слое, модель падает.

Правило: Оставляйте 20% VRAM про запас. Для 24 ГБ VRAM максимум 80 слоев. Лучше 75.

Ошибка 2: Неправильный контекст

GPT-OSS 120B поддерживает 8192 токена контекста. Но если поставить num_ctx 8192 на 64 ГБ ОЗУ - упретесь в память.

Формула: Максимальный контекст = (ОЗУ - вес модели) / 0.4. Для 128 ГБ ОЗУ: (128 - 65) / 0.4 = 157.5. Безопасно ставим 8192, но не больше.

Ошибка 3: Запуск через трансформеры

# НЕ ДЕЛАЙТЕ ТАК:
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("gpt-oss-120b")
# Умрет на 90% загрузки

Трансформеры не оптимизированы под A3B архитектуру. Используйте только GGUF формат с llama.cpp или Ollama.

А что насчет маленьких моделей?

Да, есть 7 маленьких LLM на ноутбук с 16 ГБ ОЗУ. Они быстрые, экономные. Но качество ответов на уровне GPT-3.5. Для чата - ок. Для серьезной работы - нет.

GPT-OSS 120B справляется с:

  • Генерацией кода (используйте промпты для кодинга)
  • Анализом длинных документов (до 8к токенов)
  • Сложными цепочками рассуждений
  • Мультиязычными задачами

Маленькие модели справляются с: "Напиши приветственное письмо". Разница.

Будущее: кто победит GPT-OSS 120B?

К 2026 году появились десятки претендентов. Но большинство либо требуют суперкомпьютер, либо жертвуют качеством ради скорости.

Мой прогноз: GPT-OSS 120B продержится как золотой стандарт локальных больших моделей до середины 2026. Потом появится что-то с аналогичной архитектурой A3B, но лучше оптимизированное под новые GPU.

Секрет долголетия GPT-OSS 120B прост: она сделана для реального железа, а не для бенчмарков. Разработчики думали не "как обогнать Llama на тестах", а "как запустить 120 млрд параметров на домашнем ПК".

И они решили эту задачу. На 31.01.2026 - лучше всех.

P.S. Если собираете домашний ИИ-сервер специально под большие модели - берите минимум 192 ГБ ОЗУ. Сейчас это стоит как хороший ноутбук, но окупается за месяц активного использования.