Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2085 8 min

RTX 5090 в слезах: почему ваша локальная LLM для кодирования работает как пьяный стажёр

Разбираем, почему локальные LLM для кодирования работают плохо на RTX 5090, как настроить окружение и какие инструменты использовать в 2026 году.

Открыть документ
Manual #2083 5 min

Opencode против Claude Code: как архитектурные различия убивают производительность в мультиагентах

Глубокий разбор архитектур Opencode и Claude Code для мультиагентных систем. Dynamic Context Pruning, оркестрация, тесты на H200 и реальные цифры.

Открыть документ
Manual #2082 10 min

Забей на ChatGPT: 20 реальных кейсов локальных LLM, которые работают без интернета

От анализа данных до автоматизации кода. 20 реальных кейсов использования локальных LLM в 2026 году. Ollama, LM Studio, приватный ИИ без интернета.

Открыть документ
Manual #2081 9 min

Opencode: как собрать мультиагентную фабрику кода с оркестратором, воркерами и ревьюерами

Пошаговый гайд по созданию мультиагентной системы кодирования с Opencode. Архитектура с оркестратором, spawn worker и ревьюерами для автоматической разработки.

Открыть документ
Manual #2080 10 min

CPU-only MoE: как запустить 120B модели на DDR5 и не сойти с ума

Полное руководство по запуску MoE-моделей на CPU и DDR5. Расчёт скорости inference, настройка XMP/EXPO, выбор квантования Q4_K_M. Примеры для GLM-4.7-Flash, GPT

Открыть документ
Manual #2079 9 min

Skills, MCP и сабагенты: как собрать AI-агента из LEGO в 2026 году

Полный гайд по архитектуре AI-агентов: Skills для знаний, MCP для инструментов, сабагенты для воркфлоу. Как собрать систему, которая не тупит и помнит всё.

Открыть документ
Manual #2078 9 min

Почему AMD GPU медленнее в обрабатывает промпты: архитектурный разбор от софта до кремния

Глубокий разбор, почему AMD видеокарты тормозят с промптами. ROCm vs Vulkan, аппаратные ограничения RDNA, реальные цифры и можно ли это исправить в 2026 году.

Открыть документ
Manual #2076 7 min

Контекст-инжиниринг и Vibe Proving: что будет после того, как промпт-инжиниринг умрет

Продвинутые техники работы с LLM после промптов: контекст-инжиниринг, Vibe Proving, самоулучшающиеся workflow. Практическое руководство.

Открыть документ
Manual #2075 8 min

Docker-среда для SAP-автоматизации: Клод, браузер и локальный AI в одном контейнере

Пошаговый гайд по созданию Docker-среды для автоматизации SAP с Claude Code, MCP плагинами и локальным vLLM. Рабочий стек на 2026 год.

Открыть документ
Manual #2072 10 min

Эпистемическая калибровка: как DeepSeek и MiMo обманывают своей уверенностью

Практический гайд по оценке эпистемической калибровки LLM. Тестируем избыточную уверенность DeepSeek и MiMo с реальными примерами ошибок на 2026 год.

Открыть документ
Manual #2070 7 min

Pokemon Red на автопилоте: как собрать AI-агента на чистом браузере

Подробный гайд по созданию автономного AI-агента для Pokemon Red в браузере без серверов. WebLLM, TensorFlow.js и WASM-эмулятор на практике.

Открыть документ
Manual #2068 9 min

LLM на старом ноутбуке: заставляем модель работать там, где она не должна

Подробный гайд по запуску TinyLlama и других моделей на слабом железе. Контекстное прунирование, мониторинг энтропии Шеннона, Python скрипты.

Открыть документ