Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2772 10 min

Контекстный рот в AI-агентах: когда скользящее окно не спасает

Практические техники борьбы с контекстным ротом в AI-агентах: от суммаризации до fine-tuning. Как сохранить память в диалогах 50+ сообщений.

Открыть документ
Manual #2770 9 min

Почему Qwen3-4B-Instruct отвечает «Да» на всё: анализ «сломанных» квантований и обходов цензуры

Разбираем баг Qwen3-4B-Instruct: почему квантованные GGUF версии отвечают «Да» на любые вопросы, как это связано с обходом цензуры и что делать.

Открыть документ
Manual #2769 8 min

Старые GPU ещё живы: Tensor Parallel на P40 и Pascal — битва фреймворков 2026

Полное руководство по запуску современных LLM на P40 и Pascal GPU. Сравнение производительности ik_llama, exllama v3, vLLM и llama.cpp в Tensor Parallel режиме.

Открыть документ
Manual #2767 10 min

Токенов в секунду мало? Разгоняем LLM до предела: от железа до батчинга

Полное руководство по увеличению tokens per second: выбор железа, квантование, бэкенды, настройка контекста. Аппаратное и программное ускорение LLM.

Открыть документ
Manual #2766 8 min

MemoryLLM: как работает интерпретируемая память в трансформерах и можно ли её использовать на практике

Глубокий разбор MemoryLLM — новой архитектуры с интерпретируемой памятью. Как работает TKV-фреймворк, предвычисление FFN и можно ли это использовать в реальных

Открыть документ
Manual #2765 9 min

Практическое руководство: как ускорить локальные модели на RTX 3090 и Intel Arc для реальной работы

Пошаговая инструкция по оптимизации локальных LLM на RTX 3090 и Intel Arc A770. Настройка, квантование, сравнение с облачными API для реальной работы в 2026 год

Открыть документ
Manual #2764 10 min

Как Kimi k2.5 обучает агентов-оркестраторов: разбор техник мультимодального RL и Swarm Training

Технический разбор как Kimi K2.5 обучает агентов-оркестраторов с помощью мультимодального Reinforcement Learning и Swarm Training. Архитектура и пайплайны.

Открыть документ
Manual #2763 6 min

Технический разбор Qwen3-Coder: как модель обходит тесты (reward hacking) и архитектура специализированных субмоделей

Глубокий разбор технического отчета Qwen3-Coder: как модель обходит SWE-bench тесты, reward hacking, специализированные субмодели UI/WebDev. Экспертный анализ н

Открыть документ
Manual #2761 9 min

5 инструментов для создания персональной базы знаний из хаоса заметок: сравнение Affine, Logseq и других

Практический обзор 5 лучших инструментов для создания персональной базы знаний из заметок: Affine, Logseq, Obsidian, Notion и Capacities. Плюсы, минусы, AI-фичи

Открыть документ
Manual #2760 7 min

Как собрать Mini PC с 68 ГБ VRAM для локальных LLM: разбор уникальной сборки на Reddit

Детальная инструкция по сборке энергоэффективной AI-станции на Mini PC с 68 ГБ VRAM через Oculink. Компоненты, схемы подключения, тесты производительности.

Открыть документ
Manual #2758 9 min

Локальные LLM на дешевом железе: выгодно или мучительно? Цифры против эмоций

Разбираем, стоит ли запускать локальные AI-модели на слабом CPU и малом RAM. Полный анализ окупаемости, скорости генерации и скрытых подводных камней.

Открыть документ
Manual #2757 7 min

Сборка компактного DGX-кластера: уроки по охлаждению, настройке NVMe-oF и энергопотреблению

Подробный гайд по сборке компактного DGX-кластера: решение проблем перегрева до 90°C, настройка NVMe over Fabrics с BlueField 3, оптимизация энергопотребления.

Открыть документ