Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #4608 8 min

Практическое руководство: как собрать локальный AI-агент для iPhone с llama.cpp и Metal

Пошаговое руководство по созданию локального AI-агента для iPhone с использованием llama.cpp и Metal. Выбор модели, квантование, tool calling и оптимизация под

Открыть документ
Manual #4605 6 min

AI-агент для Godot 4: Как заставить нейросеть видеть, что она накодила

Пошаговое руководство по созданию AI-агента, который не только пишет код для Godot 4, но и анализирует скриншоты игры, чтобы самостоятельно вносить правки. MCP-

Открыть документ
Manual #4603 8 min

Бенчмарк Lost-in-the-Middle: как тестировать LLM на потерю знаний в длинных документах

Практический гайд по использованию бенчмарка Lost-in-the-Middle для оценки потери знаний LLM в длинных документах. Анализ ошибок, пошаговая инструкция, актуальн

Открыть документ
Manual #4601 9 min

Как избежать катастрофы с ИИ-агентом: уроки из случая удаления продакшена Claude Code

Полное руководство по безопасности ИИ-агентов: принцип наименьших прав, резервные копии AWS, изоляция сред и мониторинг на основе реального инцидента с Claude C

Открыть документ
Manual #4600 6 min

State Flow Machine: как замена трансформеров добивается 79% удержания длины контекста

Глубокий разбор архитектуры State Flow Machine. Как FlashLM и SlotMemoryAttention решают проблему квадратичной сложности трансформеров и дают 79% retention на д

Открыть документ
Manual #4597 8 min

Круши цензуру: как собрать свою uncensored LLM из Qwen и знаний Claude Opus за один вечер

Пошаговый гайд по созданию uncensored LLM. Слияние тензоров Qwen3.5 9B, дистилляция знаний Claude Opus, готовый код на Google Colab для моделей без цензуры.

Открыть документ
Manual #4595 5 min

Разоблачение TB2: как задача db-wal-recovery ломает бенчмарки и как её правильно решить

Глубокий разбор задачи db-wal-recovery из Terminal Bench 2.0. Почему стандартные бенчмарки пасуют перед SQLite WAL и XOR шифрованием. Пошаговое решение.

Открыть документ
Manual #4594 8 min

Homelab для LLM: как окупить сервер на H100 за счёт экспериментов с большими моделями

Реальный кейс: как собрать домашний сервер на H100 для экспериментов с LLM и окупить его, сэкономив на облачных вычислениях. Расчёты, настройка Grafana, выбор ж

Открыть документ
Manual #4591 10 min

Тест производительности: ik_llama.cpp против llama.cpp на Qwen3/3.5 MoE - 40% прирост или оптимизация под копирку?

Полный бенчмарк ik_llama.cpp и llama.cpp на Qwen3/3.5 MoE. Команды, настройки, реальный прирост скорости до 40%. Аппаратная конфигурация, квантование Q4_K_M, ан

Открыть документ
Manual #4590 8 min

Практическое руководство по разработке AI-агентов: критика MCP, безопасность и архитектурные принципы

Глубокий разбор ошибок в создании AI-агентов: почему MCP и терминал опасны. Практические принципы безопасности и архитектуры для надежных систем на 15.03.2026.

Открыть документ
Manual #4580 10 min

Как ускорить long context диалоги на Apple Silicon в 200 раз: эксперимент с KV cache в MLX

Подробный эксперимент с KV cache в MLX: как добиться ускорения в 200 раз для long context диалогов на Mac, разбор ошибок с thinking tokens, практическое руковод

Открыть документ
Manual #4578 7 min

Kotlin HumanEval: 14B-модель громит 70B-гигантов, и вот почему ваши бенчмарки врут

Результаты бенчмарка Kotlin HumanEval на 15.03.2026: маленькая локальная LLM обогнала гигантов. Анализ pass@1, pass@3 и почему размер не главное.

Открыть документ