Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #1723 7 min

LM Studio на 128 ГБ ОЗУ: Почему GPU Offload не работает и как заставить Qwen2.5 летать

Пошаговая настройка LM Studio для больших моделей. Решаем проблемы GPU Offload, ускоряем Qwen2.5-Coder-32B в 10 раз, настраиваем VSCode Cline.

Открыть документ
Manual #1722 7 min

3x3090: как заставить 235-миллиардную модель поместиться в 72 ГБ VRAM

Подробный гайд по запуску Qwen3-VL 235B и других огромных моделей на связке из трех RTX 3090. Настройка llama.cpp, квантование TQ1, сравнение производительности

Открыть документ
Manual #1721 10 min

Middleware в LangChain 1.0: практический гайд по созданию продакшен-агентов с управлением контекстом и PII-защитой

Полный гайд по middleware в LangChain 1.0: управление контекстом, фильтрация PII-данных, human-in-the-loop. Код, примеры, лучшие практики.

Открыть документ
Manual #1720 8 min

AI-кодинг на пределе: 10 уроков выгорания от интенсивной работы с Claude Code и Codex

Личный опыт после 50 проектов с Claude Code и OpenAI Codex. Реальные ловушки AI-кодинга, выгорание разработчика и как сохранить продуктивность.

Открыть документ
Manual #1719 8 min

Комитет маленьких LLM против одинокого гиганта: как заставить модели спорить за ваш код

Практическое руководство по сборке комитета LLM-агентов для генерации кода. Запуск пайплайна с LangChain, валидация большими моделями, снижение стоимости в 10 р

Открыть документ
Manual #1718 7 min

Graph Neural Networks против классических методов: революция в прогнозировании спроса

Глубокий разбор Graph Neural Networks в прогнозировании спроса FMCG. Сравнение с ARIMA, Prophet, LSTM на реальном датасете. Практические выводы для бизнеса.

Открыть документ
Manual #1715 5 min

Ошибка 429 в Ollama: как обойти rate limit Hugging Face на Raspberry Pi

Пошаговый гайд по обходу ошибки 429 в Ollama при скачивании моделей с Hugging Face на Raspberry Pi. Работающие методы для Qwen3-30B и других моделей.

Открыть документ
Manual #1712 10 min

Mac Studio M3 Ultra vs ПК на Threadripper: сборка мощной ML-станции за $15 000 под большие модели

Полное сравнение сборок для локального запуска LLM. Mac Studio M3 Ultra с 192GB RAM против Threadripper Pro 7985WX с RTX 6000 Ada 48GB. Спецификации, тесты, выб

Открыть документ
Manual #1711 7 min

Токенизация в LLM: почему ваш промпт стоит дороже, чем кажется

Полный гайд по токенизации в LLM: от BPE-алгоритмов до KV-cache. Узнайте, почему токены дорогие, как работает prefill этап и как сократить расходы на 30-50%.

Открыть документ
Manual #1710 8 min

Прогнозирование 200+ временных рядов с библиотекой Etna: от EDA до production-ready кода

Пошаговый гайд по прогнозированию сотен временных рядов с библиотекой Etna. Обработка аномалий, масштабируемое ML-решение, production-ready код от Senior DevOps

Открыть документ
Manual #1709 7 min

Agent Zero на 84 ГБ VRAM: как заставить агента не врать и не тормозить

Детальный гайд по настройке Agent Zero на мощном железе. Распределение моделей между Ollama и llama.cpp, выбор квантований, борьба с галлюцинациями LLM.

Открыть документ
Manual #1708 8 min

Таксономия дрейфа LLM: как отличить контекстную вариацию от реального изменения поведения модели

Практическое руководство по диагностике дрейфа LLM. Учимся отличать контекстные вариации от системных изменений модели с помощью новой таксономии.

Открыть документ