Учебные материалы
Запуск современных LLM на старом железе: подробный гайд на примере Dell T7910
Пошаговое руководство по запуску современных языковых моделей на старом сервере Dell T7910. Квантизация, оптимизация памяти, выбор видеокарты и практические сов
Что такое квантизация GGUF? Разбираем форматы Q3_K_M и Q3_K_XL на примере GLM-4.7
Подробное объяснение квантизации GGUF, сравнение форматов Q3_K_M и Q3_K_XL на примере GLM-4.7. Как сжать модель без потери качества, оптимизировать память и уск
Где брать данные для обучения и fine-tuning: скрапинг, открытые датасеты или платные
Полное руководство по выбору данных для обучения и fine-tuning моделей: сравнение скрапинга, открытых и платных датасетов с юридическими и техническими аспектам
Dual RTX 3090 с NVLink: полный гайд по настройке для локальных LLM
Полное руководство по сборке и настройке системы с двумя RTX 3090 и NVLink для запуска больших языковых моделей. Аппаратные требования, установка, оптимизация п
Проблема с загрузкой больших LLM на AMD Strix Halo: решение ошибки 'Unable to allocate ROCm0 buffer'
Полное руководство по решению ошибки 'Unable to allocate ROCm0 buffer' при загрузке 120B+ моделей на AMD Ryzen AI Max+ 395. Настройка VGM, выделение VRAM, работ
Как запустить локальную Stable Diffusion на старом компьютере: пошаговый гайд
Пошаговое руководство по запуску локальной Stable Diffusion на старом компьютере без мощной видеокарты. Оптимизация, Vulkan, экономия ресурсов.
Стратегии масштабирования локальных LLM: от одной карты до кластера
Исчерпывающее руководство по масштабированию локальных языковых моделей: оптимизация памяти, tensor/pipeline parallelism, кластеризация GPU. Реальные кейсы и по
RTX Pro 6000 vs. RTX 4090 для локальных LLM: исчерпывающее сравнение на 2025 год
Полное сравнение RTX Pro 6000 и RTX 4090 для запуска локальных LLM в 2025. Что лучше: 48 ГБ VRAM или производительность? Гайд по выбору.
Практический гайд: как избежать основных ошибок при локальном запуске больших LLM
Полное руководство по запуску больших языковых моделей локально. Решаем проблемы с VRAM, фрагментацией памяти, латентностью. Llama.cpp, vLLM, квантование, оптим