Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2231 8 min

Забей на облака: Запускаем локальную LLM на iPhone для суммирования встреч

Полное руководство по запуску локальных языковых моделей на iPhone для автономного суммирования встреч. Модели, квантование, CoreML и оптимизация на 25.01.2026.

Открыть документ
Manual #2230 7 min

Kinoscriber: как транскрибировать видео локально без интернета и платных подписок

Полный обзор Kinoscriber - веб-приложения для создания субтитров. Тестируем модели Parakeet 2.3, сравниваем скорость и точность, разбираем установку и типичные

Открыть документ
Manual #2226 10 min

MiniMax Agent: как за 15 минут создать интерактивное 3D-приложение без кода на примере модели Солнечной системы

Пошаговый гайд по созданию интерактивной 3D-модели Солнечной системы с помощью MiniMax Agent. Без программирования и сложных инструментов.

Открыть документ
Manual #2225 9 min

Семь GPU ревут: считаем, сколько съедает LLM-ферма и как вернуть деньги

Практический гайд по расчету энергозатрат LLM-фермы с 7 GPU. Idle power, пиковая нагрузка до 2500W, оптимизация и реальный ROI.

Открыть документ
Manual #2223 8 min

NVMe Swapping: Как запустить ЛЮБУЮ модель Ollama на одном сервере и забыть про OOM ошибки

Техника NVMe Swapping позволяет запускать любые модели Ollama на одном сервере. Экономия VRAM, избавление от OOM ошибок, практическое руководство.

Открыть документ
Manual #2222 8 min

Qwen3-VL-8B генерирует кривой JSON? Вот как настроить сэмплеры и исправить всё

Практический гайд: оптимальные параметры сэмплеров для Qwen3-VL-8B. Исправляем плохой JSON и низкое качество ответов. Настройка температуры, top_p, top_k, penal

Открыть документ
Manual #2220 6 min

Mac Mini M4 16 ГБ: ловушка для энтузиастов локальных LLM?

Практический разбор: какие LLM реально запустить на Mac Mini M4 с 16 ГБ, сравнение с ПК и честный ответ — стоит ли покупать в 2026 году.

Открыть документ
Manual #2218 8 min

LM Studio OOM на Windows: Почему Full GPU Offload жрёт оперативную память как сумасшедший

Разбираемся, почему LM Studio с Full GPU Offload на Windows ест оперативку даже при 32 ГБ RAM. Полное руководство по GGUF-моделям, распределению памяти и фиксу

Открыть документ
Manual #2217 7 min

DGX Spark: тестирование реальной производительности матричного умножения (GEMM) и анализ аномалий INT4

Практическое тестирование реальной производительности матричного умножения на DGX Spark. Анализ аномалий INT4, сравнение TFLOP, настройка CUDA ядер и оптимизаци

Открыть документ
Manual #2216 8 min

Локальные LLM против интернет-цензуры: как настроить Gemma3 и Qwen3 для обхода блокировок

Пошаговый гайд по настройке локальных LLM (Gemma3 12B, Qwen3 8B) для автономной работы без интернета. Обход блокировок, офлайн-модели, llama.cpp.

Открыть документ
Manual #2214 8 min

SAM 3 против специализированных детекторов: реальные цифры, которые заставят вас передумать

Сравнение Segment Anything Model 3 с кастомными детекторами: время инференса 1100ms на P100, точность и когда тренировать свою модель бессмысленно.

Открыть документ
Manual #2212 10 min

RTX 4090 48GB: Хардверный хак от Northridge Fix, который NVIDIA скрывает

Пошаговое руководство по замене памяти на RTX 4090 до 48 ГБ. Модификация для запуска Llama 3.3 405B локально. Все риски, инструменты и тесты производительности.

Открыть документ