Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #1090 9 min

Federated Learning с Flower Framework: полное руководство для начинающих на Python

Практическое руководство по федеративному обучению на Flower Framework. Код, разбор ошибок и применение для приватных данных в медицине и на edge-устройствах.

Открыть документ
Manual #1089 7 min

GLM-4.6V думает слишком много: как отрубить reasoning и ускорить модель в 3 раза

Практическое руководство по ограничению reasoning в GLM-4.6V. Настройка параметров, сравнение с Qwen3, бенчмарки ArtificialAnalysis и оптимизация для продакшена

Открыть документ
Manual #1088 8 min

MiniMax 2.1 против Claude: практический разбор кейса разработки агента и реальная экономия

Практический разбор: замена Claude на MiniMax 2.1 для генерации кода. Реальная экономия 85%, сравнение качества, пошаговая миграция и подводные камни.

Открыть документ
Manual #1086 7 min

Запуск LLM на Raspberry Pi: как избежать износа microSD и оптимизировать setup

Подробный гайд по запуску локальных LLM на Raspberry Pi без убийства карты памяти. Настройка Ollama, перенос на SSD, оптимизация swap и памяти.

Открыть документ
Manual #1084 8 min

Как запустить GPT OSS и Qwen VL на 6 ГБ VRAM: создание кастомного MCP-сервера

Пошаговый гайд по созданию кастомного MCP-сервера для запуска двух больших моделей на ограниченной видеопамяти. Оптимизация памяти, настройка llama.cpp, решение

Открыть документ
Manual #1083 10 min

Делим одну GPU на всех: vGPU, MIG и другие способы совместной работы с LLM без драк за железо

Как разделить одну видеокарту между несколькими пользователями для работы с LLM. Полное сравнение vGPU, MIG, Slurm и Open OnDemand с пошаговой настройкой.

Открыть документ
Manual #1082 7 min

Полное руководство по выбору GGUF-модели: K-Quants vs I-Quants, сравнение форматов и рекомендации по загрузке

Подробное руководство по выбору GGUF-моделей: сравнение форматов квантования K-Quants и I-Quants, практические рекомендации для llama.cpp.

Открыть документ
Manual #1080 8 min

Цензура LLM: режем на живую или хирургически удаляем? NPBA против PRISM

Глубокий разбор двух методов удаления цензуры из языковых моделей: Norm-Preserving Biprojected Abliteration и PRISM. Тесты, примеры, что выбрать для uncensored

Открыть документ
Manual #1078 7 min

Сравнение локальных AI-моделей для генерации изображений и видео на RTX 5090: SD3, Flux, SVD и другие

Практическое сравнение Stable Diffusion 3, Flux.1 Dev, Stable Video Diffusion для генерации изображений и видео на RTX 5090. Требования к памяти, скорость, каче

Открыть документ
Manual #1077 9 min

Работа найдется: как заставить AI-агента проходить HR-фильтры и писать отклики, которые не пахнут AI-slop

Пошаговый пайплайн: извлечение фактов из вакансий, анализ резюме и генерация уникальных сопроводительных писем. Борьба с галлюцинациями и AI-slop.

Открыть документ
Manual #1076 9 min

GRPO и ревард-хакинг: как модель учится говорить красиво ничего не говоря

Практическое руководство по борьбе с reward hacking в GRPO: почему модели генерируют мусор и как это исправить. KL divergence, стабильные reward функции, паттер

Открыть документ
Manual #1075 7 min

Groq vs. Локальный GPU: как GPT-OSS-20B убивает RTX 4090 в токенах в секунду

Практический тест: Groq выдает 250+ токенов в секунду, RTX 4090 - 45. Когда облако быстрее локального железа и стоит ли покупать GPU?

Открыть документ