Зачем вообще кто-то покупает сломанные видеокарты?
Ситуация простая: у вас горит желание запускать локальные LLM вроде Llama 3.2 90B или нового Qwen 2.5 72B, но цены на видеокарты с большим объемом VRAM кусаются. RTX 4090 стоит как подержанный автомобиль, а RTX 3090 уже не так просто найти по нормальной цене. На eBay появляются объявления вроде "RTX 3090, no display, works for compute" за полцены. Звучит заманчиво, не правда ли?
Ключевой момент: для инференса LLM видеокарте не нужен вывод изображения. Ей нужны только вычислительные ядра и рабочая память. Если GPU не показывает картинку, но CUDA-ядра и VRAM в порядке - она идеально подходит для ваших задач.
Что может сломаться в GPU и как это влияет на LLM
Не все поломки одинаковы. Некоторые убивают карту полностью, другие оставляют её полезной для специфических задач.
| Тип поломки | Влияние на LLM | Шанс починки |
|---|---|---|
| Сгоревшие цепи питания | Карта не включается вообще | Низкий, нужен опытный ремонт |
| Проблемы с выводом (no display) | Не влияет на вычисления | Часто не ремонтируется, но и не мешает |
| Поврежденная VRAM | Критические ошибки при загрузке моделей | Очень низкий, обычно смерть карты |
| Перегрев GPU ядра | Троттлинг, нестабильная работа | Средний, замена термопасты/термопрокладок |
| Сломанные порты HDMI/DisplayPort | Совсем не влияет на вычисления | Не требует ремонта для LLM |
Три реальных кейса из моего опыта
За последний год я купил и протестировал 7 "сломанных" видеокарт с eBay. Вот что получилось:
Кейс 1: RTX 3090 "no display" за $450
Продавец честно написал: "Работает в майнинге, не показывает изображение". Карта пришла, я подключил её как вторую GPU в систему с работающей RTX 3080. Через nvidia-smi видно - карта определяется, температура нормальная, память доступна. Запустил тест с помощью PyTorch:
import torch
import time
device = torch.device('cuda:1') # Вторая видеокарта
# Тест памяти
x = torch.randn(10000, 10000, device=device)
print(f"Memory allocated: {torch.cuda.memory_allocated(device) / 1024**3:.2f} GB")
# Тест вычислений
start = time.time()
for _ in range(100):
x = x @ x.T
torch.cuda.synchronize()
print(f"Computation time: {time.time() - start:.2f} seconds")
Результат: 24 ГБ VRAM доступны, производительность на уровне нормальной 3090. Карта работает в моей 4-GPU ферме уже 8 месяцев без проблем.
Важно: такие карты часто продают майнеры после того, как криптовалютный бум схлынул. Они работали 24/7 на полной мощности, что могло сократить срок жизни.
Кейс 2: RTX 3080 Ti с артефактами за $300
Здесь продавец был менее честен: "Иногда появляются артефакты в играх". На деле оказалось, что один из модулей VRAM поврежден. При попытке загрузить модель больше 10 ГБ начинались ошибки памяти. Карта оказалась бесполезной для LLM, так как поврежденная память - это смертный приговор.
Кейс 3: RTX 2080 Ti с перегревом за $200
Карта работала, но через 5 минут температура взлетала до 95°C и начинался троттлинг. Решение стоило $20: замена термопасты и термопрокладок на VRAM. После ремонта карта стабильно работает в ферме из б/у видеокарт.
Пошаговый план: как не прогореть на eBay
1 Фильтруем объявления правильно
Ищите именно "no display" или "for parts/repair". Избегайте "artifacts", "crashes under load", "memory errors" - это признаки поврежденной VRAM. В описании должно быть четко указано, что карта определяется в системе и память работает.
2 Проверяем продавца
Рейтинг 98%+ минимум. Смотрите историю продаж - если он продает много одинаковых карт, возможно, это майнинг-ферма на распродаже. Читайте отзывы именно на GPU. eBay Buyer Protection - ваш друг, но только если продавец участвует в программе.
3 Задаем правильные вопросы
- Карта определяется в диспетчере устройств Windows?
- Показывает ли nvidia-smi полный объем памяти?
- Были ли попытки ремонта? (Если да - бегите)
- Работала ли карта в майнинге? (Не страшно, но влияет на цену)
- Можно ли вернуть в течение 14 дней если не работает как заявлено?
4 Тестируем сразу после получения
У вас есть максимум 30 дней на открытие dispute в PayPal. Тестируйте в первые же дни:
# Проверка определения карты
nvidia-smi
# Тест памяти
sudo apt-get install stressapptest
stressapptest -W -s 600 -M 24000 # Тест 24ГБ памяти
# CUDA тест
git clone https://github.com/NVIDIA/cuda-samples
cd cuda-samples/Samples/1_Utilities/bandwidthTest
make
./bandwidthTest
Подводные камни, о которых молчат
1. Проблемы с драйверами. NVIDIA в 2025 году начала активнее бороться с модифицированными картами и картами с нестандартными BIOS. Обновление драйверов может "сломать" вашу спасенную карту.
2. Энергопотребление. Сломанная карта может потреблять больше энергии или иметь проблемы с стабильностью напряжения. Для фермы из 4+ карт это критично - нужен качественный блок питания с запасом.
3. Охлаждение. Карты без дисплейного вывода часто лишаются кулеров или получают дешевые замены. В закрытом корпусе с несколькими GPU это гарантированный перегрев. Придется модифицировать систему охлаждения.
Стоит ли игра свеч? Считаем ROI
Возьмем пример: нужно 48 ГБ VRAM для запуска Llama 3.1 70B в 4-битном квантовании.
| Вариант | Стоимость | Риск | Срок службы | Итог |
|---|---|---|---|---|
| 2x RTX 3090 новые | $2800+ | Низкий | 3-5 лет | Надежно, но дорого |
| 2x RTX 3090 no display | $900-1000 | Высокий | 1-3 года | Экономия 65%, но риски |
| Cloud (Lambda Labs) | $2.5/час за 2x A100 | Нет | Пока платишь | Окупается при <100 часов/мес |
Мой расчет: если вы планируете использовать LLM больше 300 часов в месяц, покупка железа окупается за 6-8 месяцев. Но с учетом всех рисков сборки, возможно, облако все еще выгоднее.
Альтернативы, о которых вы не думали
Пока вы рискуете с eBay, мир предлагает другие варианты:
- Серверные карты с аукционов. Tesla P40 (24 ГБ) стоит $150-200, но требует активного охлаждения. Производительность ниже, но стабильность выше.
- Локальные прокатные сервисы. В Европе появляются услуги аренды GPU на неделю/месяц. Дешевле облаков, но нужно забирать железо физически.
- Модификация существующих карт. Как в случае с 48GB RTX 4090 - экстремально, но работает.
- Коллективные покупки. Несколько энтузиастов скидываются на ферму и делят время доступа.
Мой вердикт после года экспериментов
Покупка сломанных GPU для LLM - это как русская рулетка, где 3 патрона из 6. Когда везет - экономишь тысячи долларов. Когда не везет - получаешь кирпич с вентилятором.
Для кого это работает:
- Опытные сборщики, которые могут диагностировать и починить
- Те, у кого уже есть рабочая система и сломанная карта будет дополнением
- Энтузиасты с бюджетом на эксперименты
Кому стоит обойти стороной:
- Новички без опыта работы с железом
- Те, кому нужна стабильная система для работы/проектов
- Люди без доступа к запасным частям и инструментам для ремонта
Самый важный совет: никогда не покупайте сломанную карту как основную и единственную. Пусть она будет второй, третьей или четвертой в системе. Так её отказ не парализует всю работу.
И последнее: рынок меняется. С появлением более эффективных моделей вроде Qwen 2.5, которые лучше работают на меньшем объеме памяти, необходимость в гигантских VRAM конфигурациях может снизиться. Следите за развитием бюджетного AI-инференса - возможно, скоро появятся варианты дешевле и надежнее.
А пока - удачи на eBay. И да пребудет с вами Buyers Protection.