Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2373 7 min

Как избежать сжигания миллионов токенов в AI-агентах: анализ ошибки OpenCode и гайд по контекстному кэшированию

Разбор ошибки OpenCode, где сожгли 45M токенов за 150 диалогов. Гайд по контекстному кэшированию, RAG и индексации для экономии на API AI-агентов. Актуально на

Открыть документ
Manual #2370 8 min

Реализация AI-агента для траблшутинга в Kubernetes: архитектура, промпты и кейс от IVI

Как IVI внедрила AI-агента для автоматического анализа логов и диагностики проблем в Kubernetes. Архитектура, промпты и пошаговый план.

Открыть документ
Manual #2366 6 min

Рассуждающие LLM в криптоаналитике: как модели анализируют ончейн-данные и рыночные сигналы

Как рассуждающие LLM анализируют блокчейн-данные и рыночные сигналы. Архитектуры, инструменты и практическое применение в криптоаналитике на 2026 год.

Открыть документ
Manual #2365 8 min

Как запустить Qwen3-TTS на iPhone с MLX: практический гайд по квантованию и обходу ошибок

Пошаговое руководство по запуску Qwen3-TTS на iPhone через MLX с квантованием до 8-bit. Решаем ошибки clearCache() и оптимизируем для iOS.

Открыть документ
Manual #2363 9 min

Когда 1С падает в три часа ночи: как LLM читают логи за вас

Пошаговое руководство по автоматизации анализа логов 1С с помощью LLM. Фильтрация, обезличивание, промпты и инструменты для 2026 года.

Открыть документ
Manual #2361 9 min

YOLO-эксперименты без иллюзий: как настроить гиперпараметры и не сойти с ума

69 часов экспериментов с YOLO: подробный гайд по настройке гиперпараметров, анализу результатов и выбору версии модели для компьютерного зрения.

Открыть документ
Manual #2357 6 min

Параллельные AI-агенты для кода: почему Stanford доказал, что они работают в 2 раза хуже

Почему запуск нескольких AI-агентов одновременно снижает качество кода на 50%. Реальные данные CooperBench от Stanford и практические выводы для разработчиков.

Открыть документ
Manual #2353 8 min

Как создать локальный диктофон для Windows с потреблением <50MB RAM на Whisper и Native AOT

Пошаговое руководство по созданию офлайн-диктофона для Windows с использованием квантованного Whisper и Native AOT для экономии памяти и приватности.

Открыть документ
Manual #2351 7 min

Две RTX PRO 6000 и терабайт памяти: выдержит ли эта станция 20 одновременных пользователей?

Реальные тесты производительности, сравнение fp8 vs int4, анализ масштабируемости и ограничений KV-cache на серверной рабочей станции с 1.15TB RAM.

Открыть документ
Manual #2346 8 min

Qwen3-32B INT4: как получить 12-кратный прирост емкости с потерей точности 1.8%

Практический гайд по квантованию Qwen3-32B до INT4: 12-кратный прирост емкости модели с потерей точности менее 2% на бенчмарках MMLU-Pro. Подробный разбор метод

Открыть документ
Manual #2343 8 min

Kimi-K2.5 на vLLM: почему TTFT убивает производительность и как это исправить

Полный разбор проблем с Time To First Token в Kimi-K2.5 на vLLM. Настройка для 128k контекста, бенчмарк производительности и оптимизация токенизатора. Практичес

Открыть документ
Manual #2342 9 min

Как обучить Gemma-3 270M для обфускации данных: инструкция по финтюну с Unsloth и датасетом на 1700 примеров

Полное руководство по обучению Gemma-3 270M для анонимизации данных на португальском языке с Unsloth. Датасет 1700 примеров, код, ошибки.

Открыть документ