Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #4413 9 min

Собираем домашний AI-сервер на 4x V100 с NVLink за $1100: полное руководство по железу и софту

Пошаговое руководство по сборке домашнего AI-сервера с 64GB VRAM для запуска LLM. Спецификации, настройка NVLink, совместимость с актуальным ПО на 11.03.2026.

Открыть документ
Manual #4412 10 min

Как собрать ИИ-собеседника для телефонных звонков с мошенниками: подробный пайплайн на Asterisk, Whisper и Llama 3

Пошаговое руководство по созданию ИИ-собеседника для автоматических звонков с мошенниками. Используем Asterisk, Whisper, Llama 3, Silero VAD, Piper. Актуально н

Открыть документ
Manual #4409 7 min

Сравнение uncensored-версий Qwen 3.5 35B для задач кибербезопасности: какие модели отвечают на хакерские вопросы

Практический разбор uncensored-версий Qwen 3.5 35B. Кто реально помогает с пентестом, а кто только делает вид. Актуально на март 2026.

Открыть документ
Manual #4408 8 min

Как настроить стек локальных LLM-агентов для программирования: модели, квантования и логика выбора

Пошаговое руководство по выбору моделей, квантованию и настройке локальных LLM-агентов для программирования. Qwen Coder Next, GLM-4.7-Flash, OpenCode.

Открыть документ
Manual #4407 9 min

Как ускорить multi-GPU системы для LLM: сравнительный анализ NVLink, P2P драйверов и настройка под Linux

Практический гайд по ускорению multi-GPU систем для LLM. Сравнение NVLink и P2P драйверов NVIDIA, настройка Linux, реальные бенчмарки для Qwen 27B на 11.03.2026

Открыть документ
Manual #4404 5 min

Почему DeepSeek V3.2 становится глупее с dense attention: исследование на lineage-бенчмарках

Экспериментальное сравнение sparse и dense attention в DeepSeek V3.2. Результаты lineage-бенчмарков показывают катастрофическое падение точности на reasoning-за

Открыть документ
Manual #4403 11 min

Как построить test-time compute pipeline для Qwen3-14B: увеличение производительности для кодирования

Пошаговое руководство по созданию pipeline для улучшения качества генерации кода на Qwen3-14B. Energy-based verification, LiveCodeBench и другие техники.

Открыть документ
Manual #4402 10 min

Как обучить крошечную LLM на MacBook Air: эксперимент с самообучением Qwen 0.8B

Практический эксперимент: улучшаем крошечную Qwen 0.8B на MacBook Air через самообучение с обратной связью. LoRA, 4-битное квантование, код и инсайты.

Открыть документ
Manual #4400 9 min

Гибридные нейро-символические модели: практический гайд по внедрению доменных правил в функцию потерь для обнаружения мошенничества

Гайд 2026: как внедрить доменные правила в функцию потерь для обнаружения мошенничества. Практический разбор гибридных нейро-символических моделей на Kaggle Cre

Открыть документ
Manual #4397 12 min

Контекст-инжиниринг для coding-агентов: как структурировать сессии и не сойти с ума

Практическое руководство по контекст-инжинирингу для coding-агентов. Учимся структурировать сессии, управлять памятью и избегать типичных ошибок при работе с Cl

Открыть документ
Manual #4394 8 min

Ryzen AI Max+ 395 - ваш личный суперкомпьютер для LLM. Если, конечно, вы его настроите

Полный гайд по установке Fedora, ROCm 8.0 и сборке llama.cpp для бенчмаркинга LLM с контекстом до 250k токенов на Ryzen AI Max+ 395 с 128GB RAM. Команды, ошибки

Открыть документ
Manual #4393 7 min

Метод дублирования слоев: как улучшить LLM без изменения весов и занять первое место на Open LLM Leaderboard

Узнайте, как метод дублирования слоев улучшает LLM без изменения весов. Практическое руководство для достижения первого места на Open LLM Leaderboard с Qwen2-72

Открыть документ