Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2576 8 min

Как Роберт Мартин (Uncle Bob) использует AI-ассистентов для отладки: разбор реального кейса

Как автор "Чистого кода" использует Claude и Grok для отладки и оптимизации. Практические примеры, сравнение моделей и ошибки, которые совершают 90% разработчик

Открыть документ
Manual #2575 7 min

Scalable Power Sampling: как улучшить рассуждения LLM без дообучения и снизить латенцию в 10 раз

Новый training-free алгоритм для улучшения reasoning LLM. Снижает латенцию в 10 раз без дообучения моделей. Объяснение метода, сравнение с MCMC и GRPO.

Открыть документ
Manual #2574 10 min

Пишем и делимся высокопроизводительными ROCm-ядрами для PyTorch: полный гайд на примере GEMM

Пошаговое руководство по разработке и публикации высокопроизводительных ROCm-ядер для PyTorch на примере GEMM kernel. Инструменты, оптимизации, ошибки.

Открыть документ
Manual #2573 9 min

Бесплатный AI-сервер за 30 минут: Qwen2.5-3B на Oracle Cloud с llama.cpp

Пошаговое руководство по запуску Qwen2.5-3B на бесплатном сервере Oracle Cloud с llama.cpp, квантованием Q4_K_M и бэкендом для продакшена. CPU-инференс, классиф

Открыть документ
Manual #2572 7 min

AI-кодинг 2026: как перейти с ручного программирования на управление агентами (на примере опыта Андрея Карпатого)

Андрей Карпатый признал: ручное программирование умирает. Полный гайд по переходу на управление AI-агентами в 2026 году с Claude Opus 4.5 и GPT-5.2.

Открыть документ
Manual #2569 8 min

Differential Transformer V2: разбор кода и сравнение производительности с V1

Подробный разбор кода Differential Transformer V2 от Microsoft, сравнение производительности с V1, оптимизация внимания и grouped query attention.

Открыть документ
Manual #2566 7 min

Повторяем эксперимент Карпати: как за $100 обучить модель лучше GPT-2

Практическое руководство по повторению эксперимента Андрея Карпати — обучение nanochat модели, превосходящей GPT-2, всего за $100. Архитектура, код, нюансы.

Открыть документ
Manual #2565 7 min

Маленькие LLM против гигантов: когда ваш ноутбук сможет заменить Gemini 3 Flash

Экспертный разбор: смогут ли маленькие LLM на вашем ПК заменить Gemini 3 Flash для генерации JSON и игр. Квантование, MoE, дистилляция и реалистичные сроки.

Открыть документ
Manual #2563 10 min

LLM-IDS/IPS для nginx на DGX Spark: строим систему безопасности на gpt-oss-120b

Создаем систему обнаружения атак для nginx на локальном DGX Spark с gpt-oss-120b. Полный туториал: архитектура, ложные срабатывания, Telegram-уведомления, автоб

Открыть документ
Manual #2560 8 min

vLLM CPU Offloading: Как заставить 70-миллиардную модель работать на GTX 1060

Полный гайд по vLLM CPU Offloading — запускаем большие модели на слабом железе с оффлоадингом слоев в RAM. Настройка, оптимизация, практические примеры.

Открыть документ
Manual #2559 7 min

Как преодолеть скептицизм коллег: практическое руководство по демонстрации возможностей локальных нейросетей (GPT, LLaMA)

Практическое руководство по демонстрации локальных нейросетей коллегам. Узнайте, как преодолеть скептицизм, выбрать модель, настроить демо и избежать ошибок. Ак

Открыть документ
Manual #2558 6 min

Intel Arc B770/B60 для LLM: кошмар вместо альтернативы NVIDIA

Почему Intel Arc B770 и B60 — плохой выбор для локальных LLM в 2026 году. Проблемы с драйверами Linux, шумом кулера, отставание llm-scaler и нестабильность llam

Открыть документ