Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #1026 8 min

480 миллиардов против здравого смысла: какой open-source кодогенератор реально работает в 2026

Реальный тест больших open-source моделей для кодинга: Qwen Coder 480B, Kimi K2, GLM 4.7. Железо, качество кода, мусор в ответах — что выбрать?

Открыть документ
Manual #1025 8 min

Почему ИИ-ассистенты ломаются в бизнес-среде: анализ проблемы контекста и инженерные решения

Разбор реальных причин провала ИИ-ассистентов в бизнесе. Инженерные подходы: RAG для корпоративных данных, fine-tuning моделей, онтологии. Практические решения

Открыть документ
Manual #1023 8 min

Полный гайд по квантованию в vLLM: сравниваем AWQ, GPTQ, Marlin, GGUF и BitsandBytes на Qwen2.5-32B

Технический разбор пяти методов 4-битного квантования в vLLM: производительность, качество и практический выбор для Qwen2.5-32B.

Открыть документ
Manual #1022 9 min

RTX 5090 под прессом: как разогнать новую сборку до предела на LoRA и ComfyUI

Пошаговый гайд по нагрузочному тестированию новой сборки с RTX 5090 и 128 ГБ RAM. Проверяем пределы системы на реальных задачах: обучение LoRA и сложные workflo

Открыть документ
Manual #1021 9 min

От теории к практике: пошаговый план для AI-инженера после книги Чипа Хуена

Конкретный пошаговый план от теории к практике: проекты на LangGraph и CrewAI, оценка RAG пайплайнов, создание портфолио и поиск работы в AI Engineering.

Открыть документ
Manual #1020 7 min

Ollama vs llama.cpp: как заставить работать несовместимые видеокарты вместе (3060 и P102-100)

Пошаговое руководство по настройке llama.cpp и Ollama для работы с разными видеокартами. Оптимизация VRAM, команды tensor-split, сравнение производительности.

Открыть документ
Manual #1018 8 min

Скупой платит дважды: почему PCIe 5.0 для MoE-инференса — это ловушка, а не панацея

Собираем сервер для Mixtral, DeepSeek MoE на RTX 5090. Сравнение PCIe 4.0 и 5.0, DDR4/DDR5 для vLLM. Экономия $5K с потерей всего 35% в prefill.

Открыть документ
Manual #1017 8 min

GLM-4.7 на четырех RTX 3090: выжимаем последние токены с ik_llama.cpp

Подробный разбор настройки GLM-4.7 на 4x RTX 3090 для максимальной производительности. Таблицы бенчмарков, конфигурации Docker и ошибки.

Открыть документ
Manual #1015 8 min

Aventura: Когда SillyTavern слишком глуп, а OpenRouter слишком дорог

Полное руководство по установке Aventura — приватного фронтенда для ролевых игр и творческого письма с локальными моделями, долгосрочной памятью и анти-слоп сис

Открыть документ
Manual #1014 9 min

Критическая дыра в llama.cpp: как проверить версию и не стать жертвой RCE-атаки

Подробный гайд по критической уязвимости в llama.cpp (CVE в разработке). Как проверить свою версию, понять механизм атаки через n_discard и защититься от удалён

Открыть документ
Manual #1013 7 min

Как Llama 3.1 предсказывает суицидальные мысли лучше психологов: разбираем исследование с 75% точностью

Глубокий разбор исследования, где perplexity от Llama 3.1 предсказывает суицидальный риск с 75% точностью. Код, пайплайн, ошибки и почему это работает.

Открыть документ
Manual #1012 6 min

Когда Sonnet 3.7 умирает: что писать на Mac M2 Ultra с 192GB памяти

GLM 4.7, 4.5 Air, Intellect 3 — тестируем локальные модели для творчества на Mac. Сравнение качества, скорости, потребления памяти.

Открыть документ