Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #1767 7 min

Трейсы вместо кода: почему observability — это новая документация для AI-агентов

Почему observability заменяет документацию для AI-агентов. Как трейсы LangSmith, OpenTelemetry и Iris Agent помогают понять недетерминированное поведение. Практ

Открыть документ
Manual #1766 10 min

Один против всех: почему мульти-агентные системы — это не всегда круто (и как понять, когда они вам нужны)

Практическое руководство по выбору архитектуры AI-агентов: когда использовать одиночного агента, а когда запускать команду. Основано на исследованиях Anthropic,

Открыть документ
Manual #1765 7 min

AWQ vs GPTQ на SageMaker: какое квантование реально ускоряет LLM-инференс

Тестируем AWQ и GPTQ квантование на SageMaker: ускорение инференса, качество ответов, стоимость. Реальные тесты с Llama 3.1, Falcon 180B, DeepSeek V3.

Открыть документ
Manual #1763 7 min

Продвинутые техники тонкой настройки LLM для мультиагентных систем: паттерны Amazon в продакшене

Практические техники тонкой настройки LLM от Amazon для мультиагентных систем. SFT, PPO, DPO, GRPO с метриками: -33% ошибок, -80% человеческих усилий. Паттерны

Открыть документ
Manual #1762 9 min

Как Remote использует Code Execution Agent на LangGraph для миграции данных: решение проблем контекста и галлюцинаций

Разбираем кейс Remote: как агент, исполняющий код на LangGraph, решает проблемы больших файлов, контекста и галлюцинаций при миграции данных.

Открыть документ
Manual #1760 6 min

Как автоматизировать анализ логов безопасности с Amazon Bedrock и Claude Haiku: кейс Palo Alto Networks

Технический кейс: как Palo Alto Networks использует Amazon Bedrock (Claude Haiku + Titan Embeddings) для анализа миллионов логов безопасности с точностью 95%.

Открыть документ
Manual #1756 7 min

Llama, Ministral или GPT-OSS20B: какая локальная модель лучше генерирует синтетические данные в 2026?

Тесты и бенчмарки синтетической генерации данных на локальных LLM в 2026 году. Какая модель лучше для BERT и приватных датасетов без облаков.

Открыть документ
Manual #1755 9 min

64 ГБ RAM, чистая CPU и MoE-модели: кто выживает в спартанских условиях

Практический гайд: какие MoE-модели реально работают на 64 ГБ RAM без видеокарты. Тесты GLM-4.7-Flash, Nemotron-3-Nano-30B-A3B, Qwen3-Coder-30B-A3B для кодинга,

Открыть документ
Manual #1754 8 min

RTX 3090 для LLM: сборка кластера, замена термопасты, тесты SLI и драйверы Nvidia

Практическое руководство по сборке бюджетного кластера для LLM на RTX 3090. Замена термопасты, тесты SLI, выбор драйверов Nvidia и оптимизация PCIe.

Открыть документ
Manual #1753 8 min

Консалтинг без утечек: собираем локальную фабрику анализа документов за £30K

Полный гайд по сборке рабочей станции на 3× RTX Pro 6000 для анализа конфиденциальных документов. RAG архитектура, долгоконтекстные модели, бизнес-автоматизация

Открыть документ
Manual #1752 8 min

Claude Code против Llama-4 Scout: когда 1М токенов — это иллюзия, а LiteLLM — единственный путь

Экспертный разбор реальной работы сверхдлинного контекста. Настройка vLLM + LiteLLM прокси, коллапс эффективного контекста и практические тесты качества рассужд

Открыть документ
Manual #1751 9 min

Когда память кончается: как заставить локальный AI помнить больше 8К токенов

Техническое решение проблемы ограниченного контекста через агентские подпрограммы, суммаризацию и скользящее окно контекста для локальных LLM.

Открыть документ