Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #672 8 min

RTX 4070 Super: Как заставить транскрипцию, RAG и веб-интерфейс работать одновременно без падений

Пошаговое руководство по запуску Whisper транскрипции, RAG и Open WebUI на одной RTX 4070 Super без сбоев. Распределение VRAM, изоляция процессов, мониторинг.

Открыть документ
Manual #671 9 min

Осознанный вайб-кодинг: стек Claude 4.5 + Cursor + GPT 5.2 для эффективной разработки

Практический гайд по настройке стека ИИ-инструментов для программирования: когда использовать Claude, а когда GPT, как работать с режимом Plan в Cursor.

Открыть документ
Manual #670 7 min

Когда команда ИИ-агентов работает эффективно: анализ архитектур и экономики мультиагентных систем

Практический разбор, когда команды ИИ-агентов работают, а когда вредят. Анализ архитектур, токенных затрат и проверки результатов.

Открыть документ
Manual #668 8 min

Когда нейросеть не верит Reuters: Почему локальные LLM называют реальные новости фейком

Почему локальные LLM игнорируют Reuters и BBC, считая реальные события невозможными. Практическое решение через system prompts и Evidence Authority Rules.

Открыть документ
Manual #664 6 min

Как GPT-5 учили общаться с людьми в кризисных состояниях: разбор обновления от психиатров

Как 300 психиатров обучали GPT-5 общаться с людьми в кризисных состояниях. Снижение вредных ответов на 80%. Подробный разбор методов и этики.

Открыть документ
Manual #659 9 min

Медицинские записи в JSON за 15 минут: как заставить локальные LLM читать почерк врачей

Практический гайд по обработке медицинских записей локальными LLM. Сравнение моделей (Llama 3.2, Meditron), OCR для рукописного текста, структурирование в JSON/

Открыть документ
Manual #658 10 min

DGX Spark: Обучение Llama 3.2 на практике оказалось в 5 раз медленнее рекламы. Вот как это исправить

Реальный бенчмарк DGX Spark для Llama 3.2. Разбираемся, почему скорость в 2 раза ниже заявленной и как настроить PyTorch окружение.

Открыть документ
Manual #657 11 min

Тёмная цепочка мыслей: как заставить Gemma 3 4B думать как 70B модель

Эксперимент с тонкой настройкой Gemma 3 4B на уникальном наборе данных для прокачки стратегического мышления. Технические детали, метрики, код.

Открыть документ
Manual #655 8 min

MiniMax M2.1 и Q6_K: как квантование ломает логику модели и что с этим делать

Почему квантованный Q6_K MiniMax M2.1 генерирует бредовый код и странные ответы. Детальный разбор проблемы и практическое решение для llama.cpp и LM Studio.

Открыть документ
Manual #654 3 min

Конвертация .pth в GGUF и настройка GPU в Ollama/LM Studio: полный разбор для новичков

Пошаговое руководство по конвертации моделей .pth в GGUF и настройке GPU ускорения в Ollama и LM Studio. Работаем с Llama 3.2-11b, RX 9070 XT и Vulkan.

Открыть документ
Manual #653 8 min

GRPO + LoRA на нескольких GPU: инженерный гайд по выжиманию последних мегабайтов из VRAM

Практическое руководство по настройке GRPO с LoRA на нескольких GPU. Конкретные параметры, метрики, экономия 33% времени, решение проблем VRAM.

Открыть документ
Manual #652 10 min

mHC в DeepSeek: Как гипер-соединения убивают нестабильность обучения (и почему это не магия)

Полный разбор метода mHC от DeepSeek с кодом на PyTorch. Узнайте, как гипер-соединения стабилизируют обучение глубоких сетей без взрыва градиентов.

Открыть документ