AI-ферма на 8x RTX 3090: гайд по апгрейду майнинг-рига | Бюджетная сборка 2026 | AiManual
AiManual Logo Ai / Manual.
31 Янв 2026 Гайд

Мертвые майнеры воскресают: как собрать AI-ферму на 8x RTX 3090 за 60% от цены нового железа

Пошаговый гайд: как превратить старый майнинг-риг в мощную AI-ферму на 8 видеокарт RTX 3090. Стоимость, спецификации, настройка ПО для LLM и Stable Diffusion.

В 2026 году майнинг криптовалют окончательно превратился в археологию. Тысячи ферм пылятся на складах, а их владельцы готовы продать железо за бесценок. Идеальный момент для тех, кто хочет собрать собственную AI-лабораторию, но не готов платить 15-20 тысяч долларов за готовое решение.

Я собрал восемь RTX 3090 в одну систему. 192 ГБ VRAM. Достаточно, чтобы запустить Llama 3.3-405B в 4-битном квантовании или одновременно тренировать четыре разные Stable Diffusion 3.5 модели. И все это обошлось мне в 8500 долларов вместо 14000, если бы покупал все с нуля.

Секрет? Старый майнинг-риг. Точнее, его скелет. Каркас, блоки питания, система охлаждения — все это можно использовать повторно. Меняются только видеокарты и иногда материнская плата.

Главный миф: майнинговые карты "убиты". Реальность: если их не перегревали и не разгоняли до безумия, они прослужат еще годы. VRAM не деградирует от постоянной нагрузки, если температура держалась в норме.

Зачем вообще восемь карт?

Один RTX 5090 на 48 ГБ VRAM стоит как три б/у 3090. Но у трех 3090 — 72 ГБ. Математика простая. Для локальных экспериментов с большими модеями важен не FLOPS, а объем памяти. Qwen2.5-72B требует около 45 ГБ в 4-битном формате. Mistral Large 2 — 35 ГБ. А если хочется поиграться с MoE-архитектурами, где разные эксперты живут на разных GPU, то восемь карт — это не роскошь, а необходимость.

Еще один сценарий: параллельная работа. На двух картах — инференс LLM, на двух — тренировка диффузионной модели, на четырех — рендеринг или научные вычисления. Как я уже писал в статье про 6 GPU, современные оркестраторы вроде RunPod или даже простой Docker Swarm позволяют распределять задачи между устройствами.

💡
Если тебе не нужны все восемь слотов сразу, начни с четырех. Мой гайд по 4-GPU ферме покажет более простой путь. Восемь карт — это уже экстремальный уровень, требующий знаний в электротехнике и терпения.

Что покупать, а что оставить от старого рига

Большинство майнинг-ферм 2021-2022 годов собраны на дешевых материнских платах с десятком PCIe x1 слотов. Для AI это не подходит. Нам нужны полноценные x8 или x16 линии, иначе пропускная способность станет бутылочным горлышком при передаче данных между картами.

Компонент Брать с майнинг-рига Покупать новое/б у Бюджет (примерно)
Каркас (рама) Да Нет 0$
Блоки питания Проверить Возможно 200-600$
Система охлаждения Да Нет 0$
Материнская плата Нет Да 400-800$
Процессор Нет Да 200-400$
RTX 3090 Нет Да (б/у) 600-750$ / шт

Блоки питания — самый спорный момент. Майнеры часто использовали дешевые китайские PSU на 1200-1600W. После трех лет работы 24/7 их конденсаторы могут быть в плачевном состоянии. Я рекомендую купить два нормальных блока: например, Seasonic Prime TX-1300 (или аналогичные от Corsair, Be Quiet!). И соединить их через специальный адаптер, который синхронизирует запуск. Общая стоимость — около 600 долларов, но это страховка от пожара.

1 Выбор материнской платы: здесь нельзя экономить

Для восьми карт нужна серверная или workstation плата. Потребительские решения, даже топовые, не справятся. У меня стоит ASUS WS C621E SAGE — это монстр с поддержкой двух процессоров Xeon и семью PCIe x16 слотами. Но есть и более бюджетные варианты:

  • Supermicro X11DAi-N — два сокета LGA 3647, семь PCIe x16. На вторичном рынке около 500 долларов.
  • ASRock Rack ROMED8-2T — для AMD EPYC, восемь слотов x16. Дороже (от 700), но у EPYC больше PCIe линий.
  • Gigabyte MC62-G41 — еще один вариант для Xeon, часто встречается в списанных серверах.

Почему нельзя взять обычную плату и использовать райзеры? Можно, но производительность упадет. Если карты подключены через x1 или x4, передача данных между ними при распределенной загрузке модели превратится в кошмар. Особенно для сценариев, где важен NVLink (хотя для восьми карт он все равно не сработает).

2 Процессор и оперативка: не переплачивай

Для AI-инференса процессор почти не важен. Главное — чтобы он поддерживал нужное количество PCIe линий. Я взял два Xeon Silver 4210 — по 10 ядер каждый, купил за 200 долларов за пару. Они не блещут частотой, но дают 48 PCIe линий каждый. Итого 96 линий, хватает на все слоты.

Оперативная память — 128 ГБ DDR4 ECC REG. Майнеры часто ставили минимум RAM, поэтому придется докупить. Ищи комплекты из 8 модулей по 16 ГБ. ECC не обязательна, но желательна для стабильности при длительных вычислениях.

Ловушка: некоторые серверные материнские платы требуют регистровую память (RDIMM). Обычная десктопная DDR4 не заработает. Проверяй спецификации перед покупкой.

3 Видеокарты: как выбрать живые

RTX 3090 б/у сейчас стоит 600-750 долларов. За эти деньги получаешь 24 ГБ GDDR6X — лучший показатель по объему среди потребительских карт (не считая 4090/5090, которые в два раза дороже).

Как отличить убитую карту от нормальной:

  1. Спроси про температуру памяти. У 3090 проблемы с перегревом чипов VRAM на задней стороне платы. Если майнер не менял термопрокладки, через год память могла работать при 100-110°C. Это плохо.
  2. Проверь биос. Майнеры часто прошивали модифицированный биос для повышенного лимита мощности. Спроси, возвращал ли продавец оригинальный биос.
  3. Тест FurMark + HWInfo. При покупке запусти 10-минутный стресс-тест. Смотри не только на температуру GPU (она должна быть до 80°C), но и на температуру памяти (желательно до 95°C).
  4. Осмотри разъемы. PCIe коннекторы не должны быть оплавлены. Вентиляторы — вращаться без скрежета.

Я купил восемь карт у трех разных продавцов. Так меньше шансов, что все они из одной партии с одинаковым дефектом.

Сборка: где собака зарыта

Собрать восемь трехслотовых монстров в одну систему — это инженерная задача. Стандартный корпус не подойдет. Используем открытую раму от майнинг-рига, но модифицируем ее.

Проблема номер один: вес. Восемь RTX 3090 — это около 25 кг. Плюс материнская плата, блоки питания. Рама должна быть жесткой, иначе она прогнется. Усиль углы алюминиевыми профилями.

Проблема номер два: питание. Каждой 3090 нужно до 350W под нагрузкой. На восемь карт — 2800W только на GPU. Плюс процессоры, память, материнка. Итого около 3200W. Два блока по 1600W или три по 1200W. Кабели — только оригинальные, никаких сплиттеров на одну линию от PSU.

Я использовал два Seasonic Prime TX-1600. Каждый питает четыре карты и один процессор. Синхронизация через Add2PSU адаптер.

💡
Если не хочешь возиться с двумя блоками, есть профессиональные решения вроде HP 2400W Server PSU с платой breakout board. Они громче, но надежнее и дешевле. Подробности в моем гайде по установке 3090 в серверную стойку.

Проблема номер три: охлаждение. Майнеры использовали промышленные вентиляторы, которые гоняли воздух через карты. Для AI это слишком шумно. Я поставил четыре тихих 200mm вентилятора Noctua — два на вдув спереди, два на выдув сзади. Карты расположены вертикально с зазором в 3 см между ними. Температура под нагрузкой: GPU 68-72°C, память 88-92°C. Приемлемо.

4 Настройка ПО: чтобы все восемь карт увиделись

Вот здесь начинается магия (или головная боль). По умолчанию Linux может не определить все карты, особенно если они подключены через PCIe свитчи.

# Первое, что делаем после установки Ubuntu 24.04 LTS
sudo apt update
sudo apt install -y build-essential dkms

# Устанавливаем драйверы NVIDIA (актуальная версия на январь 2026 - 560.xx)
wget https://us.download.nvidia.com/XFree86/Linux-x86_64/560.35/NVIDIA-Linux-x86_64-560.35.run
sudo chmod +x NVIDIA-Linux-x86_64-560.35.run
sudo ./NVIDIA-Linux-x86_64-560.35.run --silent --dkms

# Проверяем, что видим все карты
nvidia-smi

Если nvidia-smi показывает не все восемь устройств, проблема в BIOS материнской платы. Нужно зайти в настройки и выставить:

  • Above 4G Decoding — Enabled (обязательно!)
  • PCIe Speed — Gen3 (для стабильности, Gen4 может не работать со всеми райзерами)
  • PCIe Bifurcation — если используешь сплиттеры x16 to x8x8
  • Disable CSM — для работы с UEFI

После настройки BIOS и перезагрузки все восемь карт должны отображаться.

Что можно делать на такой ферме

192 ГБ VRAM — это свобода. Приведу конкретные примеры:

Задача Модель Требования VRAM Как распределить
Инференс LLM Llama 3.3 405B (4-bit) ~110 ГБ 5 карт через tensor parallelism
Тренировка диффузионной модели Stable Diffusion 3.5 Large 48 ГБ (с оптимизациями) 2 карты через DDP
Параллельный инференс 4 разных LLM по 20-30 ГБ каждая по 2 карты на модель
Научные вычисления Molecular dynamics все доступные 8 карт через MPI

Мой стек ПО для управления:

  • Для LLM: vLLM с tensor parallelism для больших моделей, Ollama для быстрого запуска
  • Для распределения задач: Kubernetes с GPU-плагином NVIDIA или просто Docker Compose с явным указанием device IDs
  • Мониторинг: Grafana + Prometheus с экспортером nvidia_gpu_exporter
  • Оркестрация обучения: PyTorch Lightning + DDP (Distributed Data Parallel)
# Пример запуска vLLM на нескольких GPU
python -m vllm.entrypoints.openai.api_server \
  --model meta-llama/Llama-3.3-70B \
  --tensor-parallel-size 4 \
  --gpu-memory-utilization 0.9 \
  --served-model-name llama-70b \
  --port 8000

Ошибки, которые стоят денег и нервов

За полгода эксплуатации я наступил на все грабли. Вот топ-5 ошибок, которые можно избежать:

  1. Экономия на кабелях PCIe. Купил дешевые райзеры на AliExpress. Через месяц два вышли из строя, система падала со странными ошибками. Решение: брать только проверенные бренды (Thermaltake, Cooler Master) или серверные райзеры (SuperMicro, Dell).
  2. Недооценка тепловыделения. Первые две недели карты перегревались, потому что я поставил их слишком близко. Минимальный зазор между трехслотовыми картами — 3 см. Лучше 4-5 см.
  3. Смешивание разных ревизий карт. У меня были 3090 с разным типом памяти (Samsung и Micron). При одинаковых настройках одна память грелась до 102°C, другая до 88°C. Пришлось настраивать отдельные кривые вентиляторов через nvidia-smi.
    # Разная скорость вентиляторов для разных карт
    nvidia-smi -i 0 -pl 320  # Лимит мощности для карты 0
    nvidia-smi -i 1 -pl 300  # Для карты 1 меньше
    
  4. Игнорирование ошибок ECC памяти. В логах начали появляться предупреждения о single-bit errors. Оказалось, один модуль RAM начал деградировать. Заменил — ошибки исчезли.
  5. Попытка использовать Windows. Потратил три дня, пытаясь заставить Windows 11 увидеть все восемь карт. Драйверы падали, система зависала. Linux с первого раза определил все устройства.

Самая частая проблема новичков: они пытаются заставить все карты работать как один большой GPU. Современные фреймворки так не умеют (кроме очень специфических случаев). Гораздо проще распределять модель между картами через tensor parallelism или запускать несколько независимых инстансов.

Стоит ли оно того в 2026 году?

Общая стоимость моей сборки:

  • 8x RTX 3090 б/у: 8 × 650$ = 5200$
  • Материнская плата ASUS WS C621E SAGE б/у: 600$
  • Два Xeon Silver 4210: 200$
  • 128 ГБ DDR4 ECC REG: 300$
  • Два блока питания Seasonic 1600W: 600$
  • Рама, вентиляторы, кабели: 200$
  • Итого: 7100$

За эти деньги можно купить одну новую систему с двумя RTX 5090 (96 ГБ VRAM) или четыре RTX 4080 Super (64 ГБ). Но у меня 192 ГБ. Для определенных задач — например, работы с экстремально большими моделями или параллельных экспериментов — это единственный вариант кроме аренды облачных инстансов за 50$/час.

Альтернатива? Китайские GPU вроде Moore Threads MTT S4000 предлагают 48 ГБ за полцены, но с ними свой набор проблем: совместимость, драйверы, поддержка фреймворков.

Мой вердикт: если у тебя уже есть майнинг-риг или ты готов купить его за бесценок — проект имеет смысл. Если начинать с нуля и покупать все компоненты отдельно, возможно, лучше рассмотреть четыре RTX 5070 Ti или подождать, пока цены на 4090/5090 упадут после выхода следующего поколения.

Но есть магия в том, чтобы заставить работать систему, которую все считают устаревшей. Восемь RTX 3090 в 2026 — это как V8 двигатель в мире электромобилей. Неэффективно, прожорливо, но чертовски мощно.