Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #664 6 min

Как GPT-5 учили общаться с людьми в кризисных состояниях: разбор обновления от психиатров

Как 300 психиатров обучали GPT-5 общаться с людьми в кризисных состояниях. Снижение вредных ответов на 80%. Подробный разбор методов и этики.

Открыть документ
Manual #659 9 min

Медицинские записи в JSON за 15 минут: как заставить локальные LLM читать почерк врачей

Практический гайд по обработке медицинских записей локальными LLM. Сравнение моделей (Llama 3.2, Meditron), OCR для рукописного текста, структурирование в JSON/

Открыть документ
Manual #658 10 min

DGX Spark: Обучение Llama 3.2 на практике оказалось в 5 раз медленнее рекламы. Вот как это исправить

Реальный бенчмарк DGX Spark для Llama 3.2. Разбираемся, почему скорость в 2 раза ниже заявленной и как настроить PyTorch окружение.

Открыть документ
Manual #657 11 min

Тёмная цепочка мыслей: как заставить Gemma 3 4B думать как 70B модель

Эксперимент с тонкой настройкой Gemma 3 4B на уникальном наборе данных для прокачки стратегического мышления. Технические детали, метрики, код.

Открыть документ
Manual #655 8 min

MiniMax M2.1 и Q6_K: как квантование ломает логику модели и что с этим делать

Почему квантованный Q6_K MiniMax M2.1 генерирует бредовый код и странные ответы. Детальный разбор проблемы и практическое решение для llama.cpp и LM Studio.

Открыть документ
Manual #654 3 min

Конвертация .pth в GGUF и настройка GPU в Ollama/LM Studio: полный разбор для новичков

Пошаговое руководство по конвертации моделей .pth в GGUF и настройке GPU ускорения в Ollama и LM Studio. Работаем с Llama 3.2-11b, RX 9070 XT и Vulkan.

Открыть документ
Manual #653 8 min

GRPO + LoRA на нескольких GPU: инженерный гайд по выжиманию последних мегабайтов из VRAM

Практическое руководство по настройке GRPO с LoRA на нескольких GPU. Конкретные параметры, метрики, экономия 33% времени, решение проблем VRAM.

Открыть документ
Manual #652 10 min

mHC в DeepSeek: Как гипер-соединения убивают нестабильность обучения (и почему это не магия)

Полный разбор метода mHC от DeepSeek с кодом на PyTorch. Узнайте, как гипер-соединения стабилизируют обучение глубоких сетей без взрыва градиентов.

Открыть документ
Manual #649 8 min

Симуляция реальности: как Qwen Long назвал мир фейком и что это говорит о проверке фактов

Технический разбор: почему LLM ошибаются на экстремальных новостях. Системные промпты Qwen Long, правила Evidence Authority и Hoax Classification. Практический

Открыть документ
Manual #648 8 min

RTX 5060 Ti vs RX 9060 XT для локальных LLM: гайд по выбору GPU для первого AI-PC

Полное сравнение RTX 5060 Ti и RX 9060 XT для локальных языковых моделей. Выбор видеокарты для сборки AI-PC: поддержка CUDA и ROCm, производительность, цена и э

Открыть документ
Manual #647 7 min

Неосознанный вайб-кодинг: когда слепая вера в ИИ-генерацию кода работает (и когда нет)

Senior DevOps разбирает, когда слепое доверие к AI-ассистентам в программировании оправдано, а когда ведёт к катастрофе. Конкретные примеры и пошаговый план.

Открыть документ
Manual #645 9 min

GPT-OSS-120B vs Llama 3.1 70B: Две модели, четыре 3090, один ответ

Практические тесты GPT-OSS-120B и Llama 3.1 70B на двух RTX 3090: квантование, распределение слоёв, реальная скорость для анализа документов и STEM задач.

Открыть документ