Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #68 10 min

Свой ngrok за 10 часов: как я написал self-hosted аналог с помощью Claude Code

Подробный гайд по созданию собственного туннелирующего сервиса на Go с помощью AI-ассистента Claude Code. Разбираем архитектуру, код и деплой.

Открыть документ
Manual #63 11 min

Гайд: Как построить ML-песочницу для Data Scientist'ов на k8s и Docker

Полное руководство по созданию ML-инфраструктуры для Data Scientist'ов. Docker, Kubernetes, воспроизводимые эксперименты, масштабирование вычислений.

Открыть документ
Manual #61 8 min

Нули Римана как статистический отпечаток пальца: может ли ML решить 150-летнюю задачу?

Анализируем, может ли машинное обучение обнаружить паттерны в нулях дзета-функции Римана и помочь доказать одну из величайших математических гипотез.

Открыть документ
Manual #51 9 min

Как использовать NPU в AI MAX 395 для локальных LLM на Linux: Полное руководство 2025

Пошаговое руководство по использованию NPU в мини-ПК AI MAX 395 для локальных LLM на Linux. Установка ROCm, настройка аппаратного ускорения, оптимизация произво

Открыть документ
Manual #47 8 min

Неазиатские open-source модели для агентов: обзор и рекомендации на конец 2025

Полный обзор неазиатских open-source моделей для агентных систем на конец 2025. GPT-OSS, Llama 3.1, рекомендации по выбору и внедрению с учетом геополитических

Открыть документ
Manual #46 9 min

Оптимизация llama.cpp под AMD видеокарты: Vulkan vs ROCm — полный гайд 2025

Полное руководство по настройке llama.cpp для AMD видеокарт. Сравнение Vulkan и ROCm бэкендов, установка драйверов, оптимизация производительности и решение про

Открыть документ
Manual #38 9 min

Как запустить Llama.cpp в LXC-контейнере Proxmox: гайд для энтузиастов

Полное руководство по запуску Llama.cpp в LXC-контейнере Proxmox с поддержкой GPU. Настройка, оптимизация и решение проблем для локальных LLM.

Открыть документ
Manual #37 11 min

Почему SOTA-модели (GLM 4.7, Kimi K2) прерываются в Claude Code? Подробное решение

Исчерпывающее руководство по настройке SOTA-моделей в Claude Code: устранение обрывов, таймаутов и оптимизация мультистепового выполнения.

Открыть документ
Manual #36 9 min

Обзор лучших LLM с поддержкой Tool Calling для локального запуска в 2025

Полный обзор LLM с вызовом инструментов для локального запуска. Сравнение моделей, требования к железу, пошаговая настройка и практические примеры.

Открыть документ
Manual #35 10 min

Как собрать голосового ассистента на одной видеокарте: STT, LLM и TTS на RTX 3090

Пошаговое руководство по сборке локального голосового ассистента на одной видеокарте RTX 3090. Распознавание речи (STT), языковая модель (LLM) и синтез речи (TT

Открыть документ
Manual #34 10 min

Мультимодальный RAG в 2025: новые подходы для работы с текстом, изображениями, аудио и видео

Глубокий разбор мультимодального RAG в 2025: архитектуры, инструменты, векторные базы данных и практическая реализация для работы с разными типами данных.

Открыть документ
Manual #33 9 min

NPU против GPU: что лучше для локального запуска нейросетей в 2024

Полное сравнение NPU и GPU для локального запуска нейросетей в 2024. Разбираем производительность, стоимость, энергоэффективность и даем рекомендации по выбору

Открыть документ