Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #32 8 min

Запуск современных LLM на старом железе: подробный гайд на примере Dell T7910

Пошаговое руководство по запуску современных языковых моделей на старом сервере Dell T7910. Квантизация, оптимизация памяти, выбор видеокарты и практические сов

Открыть документ
Manual #31 8 min

Что такое квантизация GGUF? Разбираем форматы Q3_K_M и Q3_K_XL на примере GLM-4.7

Подробное объяснение квантизации GGUF, сравнение форматов Q3_K_M и Q3_K_XL на примере GLM-4.7. Как сжать модель без потери качества, оптимизировать память и уск

Открыть документ
Manual #30 8 min

Где брать данные для обучения и fine-tuning: скрапинг, открытые датасеты или платные

Полное руководство по выбору данных для обучения и fine-tuning моделей: сравнение скрапинга, открытых и платных датасетов с юридическими и техническими аспектам

Открыть документ
Manual #29 9 min

Dual RTX 3090 с NVLink: полный гайд по настройке для локальных LLM

Полное руководство по сборке и настройке системы с двумя RTX 3090 и NVLink для запуска больших языковых моделей. Аппаратные требования, установка, оптимизация п

Открыть документ
Manual #27 7 min

Проблема с загрузкой больших LLM на AMD Strix Halo: решение ошибки 'Unable to allocate ROCm0 buffer'

Полное руководство по решению ошибки 'Unable to allocate ROCm0 buffer' при загрузке 120B+ моделей на AMD Ryzen AI Max+ 395. Настройка VGM, выделение VRAM, работ

Открыть документ
Manual #26 7 min

Как запустить локальную Stable Diffusion на старом компьютере: пошаговый гайд

Пошаговое руководство по запуску локальной Stable Diffusion на старом компьютере без мощной видеокарты. Оптимизация, Vulkan, экономия ресурсов.

Открыть документ
Manual #21 9 min

Стратегии масштабирования локальных LLM: от одной карты до кластера

Исчерпывающее руководство по масштабированию локальных языковых моделей: оптимизация памяти, tensor/pipeline parallelism, кластеризация GPU. Реальные кейсы и по

Открыть документ
Manual #20 9 min

RTX Pro 6000 vs. RTX 4090 для локальных LLM: исчерпывающее сравнение на 2025 год

Полное сравнение RTX Pro 6000 и RTX 4090 для запуска локальных LLM в 2025. Что лучше: 48 ГБ VRAM или производительность? Гайд по выбору.

Открыть документ
Manual #19 8 min

Практический гайд: как избежать основных ошибок при локальном запуске больших LLM

Полное руководство по запуску больших языковых моделей локально. Решаем проблемы с VRAM, фрагментацией памяти, латентностью. Llama.cpp, vLLM, квантование, оптим

Открыть документ
← Назад Page 213 of 213 Вперед →