Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #481 9 min

Разгон 6700XT под ROCm: полный гайд по сборке стека для локальных LLM

Подробное руководство по разгону AMD Radeon 6700XT и сборке полного стека ПО для локальных языковых моделей (LLM) под ROCm с OpenWeb UI и мультимодальностью.

Открыть документ
Manual #479 9 min

Локальная замена TalkTasic: какие OSS-модели умеют видеть экран и диктовать код?

Полный гайд по сборке локального аналога TalkTasic на открытых мультимодальных моделях. Обзор моделей с поддержкой зрения и слуха, пошаговая интеграция и решени

Открыть документ
Manual #477 7 min

Как запустить локальную LLM-инфраструктуру на домашнем железе (192GB RAM + GPU)

Пошаговое руководство по развертыванию многопользовательской LLM-инфраструктуры на домашнем сервере с 192GB RAM и GPU. Proxmox, OpenWebUI, GPU passthrough.

Открыть документ
Manual #475 7 min

AMD vs NVIDIA для локального ИИ в 2025: наконец-то паритет или всё ещё ад?

Полное сравнение AMD и NVIDIA GPU для локального ИИ в 2025. Совместимость с LM Studio, производительность, настройка под Linux и ответ на вопрос: паритет или не

Открыть документ
Manual #473 6 min

Как собрать домашний ИИ-сервер на Orange Pi: гайд по установке Ollama и запуску 70B моделей

Пошаговый гайд по сборке домашнего ИИ-сервера на Orange Pi с Ascend 310. Установка Ollama, драйверов и запуск больших LLM моделей.

Открыть документ
Manual #471 11 min

Децентрализованные 4090 vs AWS H100: калькулятор для тонкой настройки Llama 3 70B

Практический гайд по выбору железа для тонкой настройки Llama 3 70B: децентрализованные 4090 vs AWS H100 с калькулятором затрат и производительности.

Открыть документ
Manual #465 9 min

Создаём персонального ИИ-ассистента на Raspberry Pi 5: читаем почту и управляем календарём

Подробное руководство по созданию приватного ИИ-ассистента на Raspberry Pi 5 для управления почтой и календарём без облаков. FunctionGemma, Python, автономность

Открыть документ
Manual #464 10 min

Сравнение: локальные модели vs GPT-4 — насколько можно приблизиться за $5000?

Подробный анализ: какие локальные модели можно получить за $5000, как они конкурируют с GPT-4 в кодировании, RAG и творческих задачах. Бенчмарки, железо, реальн

Открыть документ
Manual #461 7 min

Как Llama 3.2 3B думает внутри: удивительные находки трассировки активаций

Пошаговый гайд по reverse engineering активаций Llama 3.2 3B. Узнайте, как анализировать внутренние механизмы модели с помощью circuit analysis.

Открыть документ
Manual #460 7 min

Как ИИ-анализ вашего плейлиста раскроет вашу личность лучше психолога

Пошаговое руководство по анализу музыкальных предпочтений с помощью ИИ. Узнайте, как векторизация треков и языковые модели раскрывают ваши паттерны мышления.

Открыть документ
Manual #457 7 min

GLM 4.7 против DeepSeek и Qwen: реальное сравнение для разработки на Python и React

Практическое сравнение GLM 4.7, DeepSeek и Qwen для реальных задач разработки на Python и React. Тесты, примеры кода и рекомендации.

Открыть документ
Manual #456 6 min

F16 vs Q8_0: Когда квантование убивает качество? Практический гайд по выбору формата для медицинских моделей

Разбираем, когда квантование в Q8_0 убивает качество медицинских моделей на примере MedGemma. Практическое сравнение F16 и Q8_0, метрики и рекомендации.

Открыть документ