Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #36 9 min

Обзор лучших LLM с поддержкой Tool Calling для локального запуска в 2025

Полный обзор LLM с вызовом инструментов для локального запуска. Сравнение моделей, требования к железу, пошаговая настройка и практические примеры.

Открыть документ
Manual #35 10 min

Как собрать голосового ассистента на одной видеокарте: STT, LLM и TTS на RTX 3090

Пошаговое руководство по сборке локального голосового ассистента на одной видеокарте RTX 3090. Распознавание речи (STT), языковая модель (LLM) и синтез речи (TT

Открыть документ
Manual #34 10 min

Мультимодальный RAG в 2025: новые подходы для работы с текстом, изображениями, аудио и видео

Глубокий разбор мультимодального RAG в 2025: архитектуры, инструменты, векторные базы данных и практическая реализация для работы с разными типами данных.

Открыть документ
Manual #33 9 min

NPU против GPU: что лучше для локального запуска нейросетей в 2024

Полное сравнение NPU и GPU для локального запуска нейросетей в 2024. Разбираем производительность, стоимость, энергоэффективность и даем рекомендации по выбору

Открыть документ
Manual #32 8 min

Запуск современных LLM на старом железе: подробный гайд на примере Dell T7910

Пошаговое руководство по запуску современных языковых моделей на старом сервере Dell T7910. Квантизация, оптимизация памяти, выбор видеокарты и практические сов

Открыть документ
Manual #31 8 min

Что такое квантизация GGUF? Разбираем форматы Q3_K_M и Q3_K_XL на примере GLM-4.7

Подробное объяснение квантизации GGUF, сравнение форматов Q3_K_M и Q3_K_XL на примере GLM-4.7. Как сжать модель без потери качества, оптимизировать память и уск

Открыть документ
Manual #30 8 min

Где брать данные для обучения и fine-tuning: скрапинг, открытые датасеты или платные

Полное руководство по выбору данных для обучения и fine-tuning моделей: сравнение скрапинга, открытых и платных датасетов с юридическими и техническими аспектам

Открыть документ
Manual #29 9 min

Dual RTX 3090 с NVLink: полный гайд по настройке для локальных LLM

Полное руководство по сборке и настройке системы с двумя RTX 3090 и NVLink для запуска больших языковых моделей. Аппаратные требования, установка, оптимизация п

Открыть документ
Manual #27 7 min

Проблема с загрузкой больших LLM на AMD Strix Halo: решение ошибки 'Unable to allocate ROCm0 buffer'

Полное руководство по решению ошибки 'Unable to allocate ROCm0 buffer' при загрузке 120B+ моделей на AMD Ryzen AI Max+ 395. Настройка VGM, выделение VRAM, работ

Открыть документ
Manual #26 7 min

Как запустить локальную Stable Diffusion на старом компьютере: пошаговый гайд

Пошаговое руководство по запуску локальной Stable Diffusion на старом компьютере без мощной видеокарты. Оптимизация, Vulkan, экономия ресурсов.

Открыть документ
Manual #21 9 min

Стратегии масштабирования локальных LLM: от одной карты до кластера

Исчерпывающее руководство по масштабированию локальных языковых моделей: оптимизация памяти, tensor/pipeline parallelism, кластеризация GPU. Реальные кейсы и по

Открыть документ
Manual #20 9 min

RTX Pro 6000 vs. RTX 4090 для локальных LLM: исчерпывающее сравнение на 2025 год

Полное сравнение RTX Pro 6000 и RTX 4090 для запуска локальных LLM в 2025. Что лучше: 48 ГБ VRAM или производительность? Гайд по выбору.

Открыть документ