Intel Arc B770/B60 для LLM: проблемы с драйверами, шумом и нестабильностью | AiManual
AiManual Logo Ai / Manual.
31 Янв 2026 Гайд

Intel Arc B770/B60 для LLM: кошмар вместо альтернативы NVIDIA

Почему Intel Arc B770 и B60 — плохой выбор для локальных LLM в 2026 году. Проблемы с драйверами Linux, шумом кулера, отставание llm-scaler и нестабильность llam

Обещали бюджетную альтернативу NVIDIA. Получили головную боль на 24/7

Каждый, кто хоть раз гуглил "железо для локального AI", натыкался на статьи про Intel Arc. Сначала это были намеки, потом прямые заявления: "бюджетная альтернатива RTX 3090", "новый игрок на рынке", "Intel возвращается в гейминг и AI". В 2025-2026 году хайп достиг пика. Особенно после нашей статьи про Intel Arc Pro B60, где мы осторожно оптимизировали.

Сейчас, в январе 2026, картина ясна. И она удручающая. Если вы думаете купить Arc B770 или B60 для llama.cpp, ooba, text-generation-webui — остановитесь. Прямо сейчас. Прочтите этот текст до конца, прежде чем тратить деньги.

Предупреждение основано на реальном опыте эксплуатации 4 карт Arc B770 и 2 карт B60 в серверных стойках в течение 8 месяцев. Это не теоретические измышления, а констатация фактов, которые стоили нервов и денег.

Драйверы Linux: патчи ядра как образ жизни

Главная проблема Intel Arc в 2026 году — драйверы для Linux. Не Windows — там ситуация терпимая. Но кто запускает LLM на Windows? Правильно, почти никто. Все серьезные инференс-системы работают на Ubuntu, Debian, Rocky Linux.

Официальные драйверы Intel Compute Runtime выходят с опозданием на 2-3 месяца относительно новых версий ядра. Установите свежий Linux kernel 6.12? Ждите драйверы до февраля. А пока — черный экран или падение в fallback-режим.

Сообщество пытается патчить. Форки mesa, самодельные сборки ядра. Но это не решение для production. Каждый раз, когда обновляете систему, играете в русскую рулетку: заработает ли GPU после перезагрузки?

💡
Сравните с NVIDIA: драйверы устанавливаются за 5 минут, работают на любом ядре последних 5 лет. Или с AMD: ROCm 6.2 на 2026 год стабилен, хоть и требует танцев с бубном, как в случае с ошибкой allocate buffer на Strix Halo.

Шум кулера: звук взлетающего истребителя в вашей стойке

Здесь Intel совершила фатальную ошибку проектирования. Система охлаждения на reference-картах Arc (а других для серверного использования почти нет) — катастрофа.

Кулер работает по принципу "все или ничего". Либо 30% оборотов (едва слышно), либо 100% (55-60 дБ). Промежуточных режимов нет. При нагрузке LLM, которая редко дает 100% утилизации GPU, карта постоянно переключается между этими режимами.

Представьте: тишина в серверной, llama.cpp загружает модель... и вдруг ВЖЖЖЖЖ! На 3 секунды. Тишина. Еще 10 секунд... ВЖЖЖЖЖ! Это не преувеличение. Так работает управление оборотами на драйверном уровне.

Пользовательские кастомные кривые? Забудьте. Интел не дает API для тонкой настройки. Только через перепрошивку BIOS, что аннулирует гарантию и может убить карту.

llm-scaler: вечно отстающий на 2 шага

В конце 2024 Intel анонсировала llm-scaler — библиотеку для оптимизации LLM инференса на их GPU. Звучало многообещающе: квантование, оптимизация памяти, ускорение внимания.

Реальность 2026 года: llm-scaler отстает от llama.cpp на 6-8 месяцев. Поддержка новых архитектур моделей появляется, когда они уже устарели. GPTQ? Только базовые версии. AWQ? В планах на 2027. MoE-архитектуры? Ха-ха.

Пока сообщество вовсю использует Llama 3.3 405B, Qwen2.5 128B, DeepSeek-R1, llm-scaler только-только добавил стабильную поддержку Llama 3.1 70B. Это как приехать на вечеринку, когда все уже разъезжаются.

Функцияllama.cpp (январь 2026)llm-scaler (январь 2026)
Поддержка Qwen2.5Полная, все размерыТолько 7B, 14B
MoE-архитектурыMixtral, DeepSeek, все новыеТолько Mixtral 8x7B
Квантование IQ4_XSСтабильноЭкспериментально
Скорость инференса (tok/s на 70B)14-168-10

llama.cpp Vulkan: работает, но с оговорками "навсегда"

Да, Arc работает с llama.cpp через Vulkan backend. Но стабильность — миф.

Проблема №1: утечки памяти. Запускаете инференс на 6-8 часов? Готовьтесь к OOM killer. Драйвер не отдает память обратно системе после освобождения буферов. Баг известен с 2024 года, исправление "в работе".

Проблема №2: падения при переключении контекста. Если у вас несколько пользователей или параллельные запросы — ждите случайных крешей. Особенно с большими контекстами (128K+).

Проблема №3: неполная поддержка расширений Vulkan. Нет VK_KHR_cooperative_matrix — значит, нет оптимизированных матричных умножений. Производительность проседает на 30-40% против теоретического максимума.

Для сравнения: настройка Minisforum AI X1 Pro с интегрированной графикой Intel дала больше стабильности, чем дискретные Arc. Ирония судьбы.

Совместная работа с NVIDIA: ад для сисадмина

Попытка использовать Arc вместе с NVIDIA картами в одной системе — путь в нирвану страданий. Мы подробно писали про заклинание драконов, но с тех пор ситуация ухудшилась.

Драйверы конфликтуют на уровне ядра. NVIDIA не хочет уступать управление PCIe bus. Intel пытается захватить ресурсы при загрузке. Результат: система зависает при инициализации GPU, либо одна из карт определяется как "unknown device".

Даже если чудом запустили обе карты, распределение нагрузки между ними — отдельный квест. Llama.cpp не умеет балансировать между Vulkan (Intel) и CUDA (NVIDIA). Придется запускать два независимых инстанса и балансировать на уровне приложения.

Альтернативы, которые не сводят с ума

Что покупать вместо Arc B770/B60 в 2026 году? Варианты есть, и они лучше.

1Б/у NVIDIA RTX 3090

Да, уже не новая. Но: 24 ГБ памяти, полная поддержка CUDA, стабильные драйверы, тихая работа (на non-reference охлаждении). Рынок наводнен картами после апгрейдов на 4090/5090. Цена сравнима с новой Arc B770, а производительность в 1.5-2 раза выше для LLM.

2AMD Radeon RX 7900 XTX

24 ГБ памяти, ROCm 6.2 стал стабильнее. Не идеал (см. почему все ругают AMD), но работает предсказуемо. Плюс — не гремит как Arc.

3Серверные карты NVIDIA A4000/A5000

Дороже, но пассивное охлаждение, гарантия, ECC память. Для 24/7 инференса — надежный выбор. Особенно в свете кризиса железа для локального AI, когда стабильность важнее всего.

Стоит ли ждать исправлений?

Intel обещает "большое обновление драйверов" во втором квартале 2026. Говорят, исправят утечки памяти, шум, добавят поддержку новых функций Vulkan.

Но это обещания. Факты: за 2 года с момента выхода Arc драйверы улучшились, но фундаментальные проблемы остались. Архитектура управления охлаждением не исправится патчем. Отставание llm-scaler не ликвидировать за месяц.

Покупать железо на обещаниях — плохая стратегия. Особенно когда на кону стабильность вашей AI-инфраструктуры.

💡
Если уже купили Arc и страдаете — попробуйте перепрошить BIOS на кастомный с улучшенной кривой вентилятора. Или продавайте, пока есть спрос. В 2026 году на вторичном рынке еще верят в "потенциал Intel".

Финальный вердикт: кому подойдет Arc в 2026?

Практически никому. Серьезно.

  • Энтузиастам-мазохистам: да, если любите ковыряться в ядре, собирать драйверы из исходников, мириться с рандомными падениями.
  • Лабораториям с бюджетом 0: если карты достались бесплатно (такие программы были), можно попробовать. Но трудозатраты съедят всю "экономию".
  • Для демонстрационных стендов: где система работает 2 часа в день под присмотром инженера. Не для production.

Всем остальным — от студентов до стартапов — совет один: не наступайте на эти грабли. Выберите проверенное железо, даже если оно дороже или б/у. Ваши нервы и время стоят больше, чем потенциальная экономия на картах Intel Arc.

А если бюджет совсем прижат — лучше соберите систему на CPU, как в гайде про запуск LLM на старом железе. Медленнее, зато предсказуемо.

Intel может когда-нибудь исправит свои GPU. Но в 2026 году этот день еще не наступил. Ждите анонсов Battlemage, а пока — обходите Arc стороной.