Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #4525 6 min

Макбук M4 Max задыхается на Qwen: как заставить LM Studio летать с контекстом 80k

Полный гайд по ускорению обработки промптов в LM Studio на M4 Max. Решаем проблемы с Qwen, оптимизируем переменные среды, настраиваем Metal API.

Открыть документ
Manual #4524 9 min

DeepSeek 671B за $2000 дома: полный гайд по сборке сервера, квантованию и запуску гигантской модели

Пошаговый гайд по сборке бюджетного сервера для запуска DeepSeek V3.2 671B дома. Подбор железа, квантование модели и настройка за $2000.

Открыть документ
Manual #4523 7 min

Как настроить гибридный workflow Cloud Architect + Local Builder для автоматизации кода с OpenCode

Настройте экономичный workflow: GPT-5.4 планирует, Qwen Coder пишет код. Подробный гайд по автоматизации разработки с OpenCode.

Открыть документ
Manual #4522 7 min

RLM против Hermes Agent: сравнительный анализ подходов к управлению контекстом в AI-агентах

Глубокий разбор архитектур RLM и Hermes Agent для управления контекстом. Сравнительная таблица, выбор подхода для масштабируемых систем на 2026 год.

Открыть документ
Manual #4520 6 min

Как настроить OmniCoder-9B для 100% HumanEval на домашнем ПК: полный гайд по llama.cpp

Пошаговая инструкция по настройке OmniCoder-9B для достижения 100% на HumanEval с помощью llama.cpp на домашнем ПК с RTX 3080. Квантование Q6_K, оптимизация про

Открыть документ
Manual #4518 8 min

NumbyAI: Готовый пайплайн для категоризации транзакций через локальную LLM в Ollama

Пошаговый гайд по созданию пайплайна для автоматической категоризации банковских транзакций с использованием локальной LLM qwen3.5:9b в Ollama. Готовое решение

Открыть документ
Manual #4513 8 min

Запуск Whisper, дизаризации и суммаризации на iPhone Neural Engine: полный on-device пайплайн без облака

Запустите Whisper и LLM для транскрипции и суммаризации аудио на iPhone Neural Engine. Полное руководство по on-device пайплайну без интернета.

Открыть документ
Manual #4512 8 min

Как настроить KV-оффлоадинг и Hybrid KV Cache Manager в vLLM для гибридных моделей: разбор на примере MiniMax-M2.5

Полное руководство по настройке KV-оффлоадинга и Hybrid KV Cache Manager в vLLM для экономии VRAM на гибридных моделях. Практические команды, анализ флагов и бе

Открыть документ
Manual #4511 8 min

Почему векторный RAG проваливается на сложных документах и как работает PageIndex без эмбеддингов

Разбираем фундаментальные проблемы векторного RAG на сложных документах и показываем, как PageIndex без эмбеддингов достигает 98.7% точности на FinanceBench.

Открыть документ
Manual #4509 8 min

Самохостируемый AI для кода вместо Claude: выбор модели, железа и гайд по fine-tuning под Laravel и VueJS

Практическое руководство по замене Claude на самохостируемый AI: выбор модели, подбор железа и fine-tuning под стек Laravel и VueJS для команды из 12 разработчи

Открыть документ
Manual #4503 9 min

Новый метод быстрого удаления механизмов отказа (refusal) из LLM с низкой дивергенцией KL: полный гайд и ожидание релиза

Как за минуты убрать цензуру и отказы из LLM, сохранив качество модели. Полный гайд по новому методу аблитерирования и подготовка к релизу на arXiv.

Открыть документ
Manual #4501 9 min

Исправление бага с повторной обработкой промптов в Qwen 3.5 для llama.cpp: подробный гайд

Глубокий разбор и пошаговое исправление критического бага с повторной обработкой промптов в Qwen 3.5 при использовании llama.cpp. Узнай, как починить Jinja chat

Открыть документ