Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2075 8 min

Docker-среда для SAP-автоматизации: Клод, браузер и локальный AI в одном контейнере

Пошаговый гайд по созданию Docker-среды для автоматизации SAP с Claude Code, MCP плагинами и локальным vLLM. Рабочий стек на 2026 год.

Открыть документ
Manual #2072 10 min

Эпистемическая калибровка: как DeepSeek и MiMo обманывают своей уверенностью

Практический гайд по оценке эпистемической калибровки LLM. Тестируем избыточную уверенность DeepSeek и MiMo с реальными примерами ошибок на 2026 год.

Открыть документ
Manual #2070 7 min

Pokemon Red на автопилоте: как собрать AI-агента на чистом браузере

Подробный гайд по созданию автономного AI-агента для Pokemon Red в браузере без серверов. WebLLM, TensorFlow.js и WASM-эмулятор на практике.

Открыть документ
Manual #2068 9 min

LLM на старом ноутбуке: заставляем модель работать там, где она не должна

Подробный гайд по запуску TinyLlama и других моделей на слабом железе. Контекстное прунирование, мониторинг энтропии Шеннона, Python скрипты.

Открыть документ
Manual #2067 8 min

120V - не приговор: как собрать ферму для локальных LLM в США без переделки проводки

Практические решения для питания фермы под локальные LLM на американской электросети 120V. Расчеты, схемы подключения, выбор PSU и распределение нагрузки.

Открыть документ
Manual #2066 9 min

HashHop: $500M за реверс-инжиниринг памяти LLM. Как это работает на самом деле

Полный разбор HashHop - технологии за $500M. Как работает реверс-инжиниринг Memory-Augmented Language Models и почему это стоит таких денег. Архитектура, связь

Открыть документ
Manual #2065 7 min

8 миллиардов параметров для C++: какие opensource модели реально генерируют код, а не галлюцинируют в 2026

Тестируем DeepSeek-Coder-6.7B, Qwen-Coder-7B и CodeLlama-7B на реальных задачах C++. Сравнение скорости, качества и памяти для Windows с GGUF.

Открыть документ
Manual #2063 6 min

M4 Mac Mini или ждать M5? Железный выбор для локальных LLM в 2026 году

Полный разбор железа для локальных LLM в 2026: M4 Mac Mini тесты, прогнозы по M5, сравнение с серверами и ПК. Что купить прямо сейчас?

Открыть документ
Manual #2059 9 min

GPU-to-GPU коммуникация в PyTorch: как найти и убить скрытые тормоза с Nsight Systems

Практическое руководство по профилированию и оптимизации GPU-to-GPU коммуникации в PyTorch с Nsight Systems. Ускорьте обучение на 40% и сократите затраты.

Открыть документ
Manual #2056 9 min

Маленькие LLM на Raspberry Pi и MacBook Air: как заставить их работать умнее, а не тяжелее

Практическое руководство по работе с маленькими LLM на ограниченном железе. Оптимизация контекста, RAG, выбор моделей и инструментов на 2026 год.

Открыть документ
Manual #2055 7 min

Почему бесконечный контекст (1M токенов) не решает проблему памяти AI-агентов: разбираем концепцию Memory OS

Глубокий разбор проблемы памяти AI-агентов. Почему бесконечный контекст не работает, как устроен Memory OS и что такое жизненный цикл памяти. Практические решен

Открыть документ
Manual #2054 8 min

Gemini Nano в Chrome: кейс внедрения, 41% coverage, экономия $0 и сравнение производительности

Практический опыт внедрения Gemini Nano в Chrome: 41% coverage, производительность 6x медленнее облака, экономия $0 и fallback-стратегия.

Открыть документ