Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #1309 10 min

ИИ против рутины: автоматизируем Power BI от DAX до схемы данных

Практическое руководство по использованию ИИ для автоматизации DAX, создания SQL-запросов и экспорта схем Power BI. Примеры кода на Python и .NET.

Открыть документ
Manual #1308 8 min

Tesla P40 для MoE-оффлоудинга: как заставить 8-летнюю карту работать лучше современных

Практический гайд по использованию дешёвых Tesla P40 для оффлоудинга экспертов в MoE-моделях. Оптимизация стоимости, настройка, сравнение с RTX 4090 и GTX 1070.

Открыть документ
Manual #1307 8 min

Когда твой AI-агент тупит и молчит: полный гайд по observability для Cursor и Claude Code

Пошаговое руководство по настройке хуков и трассировки AI-агентов в Cursor и Claude Code. Hooks.json, жизненный цикл агента, отладка промптов.

Открыть документ
Manual #1302 10 min

Построение AI-монстра: локальный ассистент со всем функционалом в одной коробке

Подробный разбор архитектуры полностью локального AI-ассистента со всеми функциями. STT, TTS, RAG, управление умным домом, генерация изображений и мониторинг си

Открыть документ
Manual #1301 8 min

Общий сервер ComfyUI для команды: от ThreadRipper до PSU 2500W

Полный гайд по сборке и настройке общего сервера ComfyUI для команды. ThreadRipper PRO, RTX Pro 6000, управление портами, PSU 2500W и безопасность.

Открыть документ
Manual #1300 6 min

Anthropic Cowork: как заставить Claude работать с вашими файлами на Mac без единого скрипта

Полный гайд по настройке Anthropic Cowork для автоматической обработки документов, организации файлов и создания отчётов на Mac без программирования.

Открыть документ
Manual #1299 6 min

Расчёт стоимости self-hosted Gemma 3 4B для 300 пользователей: от железа до счёта

Подробный гайд по оценке стоимости и инфраструктуры для self-hosted развёртывания Gemma 3 4B на 300 конкурентных пользователей. TGI, квантование, выбор железа.

Открыть документ
Manual #1297 8 min

Оптимизация оперативной памяти для локальных LLM: скорость против объема на примере Qwen2.5-32B и DeepSeek

Практическое руководство по выбору конфигурации оперативной памяти для запуска локальных LLM 32B параметров. Сравнение скорости и объема на примере Qwen2.5-32B

Открыть документ
Manual #1293 9 min

Выбор локальной LLM как код-тьютора: модели, требования к RAM/VRAM и борьба с галлюцинациями

Сравниваем DeepSeek-Coder, Codestral и Llama Code как локальных код-тьюторов. Подбираем модель под 24 GB RAM и 16 GB VRAM, разбираемся с контекстом 20k и миними

Открыть документ
Manual #1292 8 min

Как собрать систему транскрибации совещаний на Whisper и Pyannote с Tesla V100: от покупки карты до развёртывания

Пошаговый гайд по сборке системы транскрибации совещаний на Whisper и Pyannote с Tesla V100 из AliExpress. От покупки карты до развёртывания.

Открыть документ
Manual #1290 6 min

Разреженные автоэнкодеры (SAE): как заглянуть в «чёрный ящик» LLM и управлять поведением модели

Практический гайд по разреженным автоэнкодерам (SAE) для интерпретации чёрного ящика LLM и управления поведением моделей. Примеры с Claude 3 Sonnet.

Открыть документ
Manual #1286 8 min

Как выбрать агентство для тонкой настройки LLM: гайд по критериям и подводным камням на примере кейса поддержки

Практический гайд по выбору подрядчика для тонкой настройки LLM на примере кейса поддержки. Критерии оценки, подготовка датасета, деплой модели и частые ошибки.

Открыть документ