Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2970 9 min

OpenClaw vs память-ориентированные агенты: битва архитектур, которая сэкономит вам 75% токенов

Техническое сравнение OpenClaw и память-ориентированных агентов: производительность, стоимость токенов, установка Ollama. Как экономить до 75% на AI-агентах.

Открыть документ
Manual #2968 5 min

Nemo 30B с 1 миллионом токенов на RTX 3090: когда контекст длиннее романа Достоевского

Подробный гайд по запуску модели Nemo 30B с контекстом 1 миллион токенов на одной видеокарте RTX 3090. Оптимизация llama.cpp, CPU offloading, сравнение производ

Открыть документ
Manual #2966 6 min

Fine-tuning в 2026: почему 90% команд тратят ресурсы впустую

Практический гайд по выбору между fine-tuning и prompt-tuning в 2026. Когда тратить ресурсы на дообучение, а когда промптов достаточно.

Открыть документ
Manual #2963 7 min

GPT-OSS-20B против GLM-4.7-Flash и Step-3.5-Flash: где ваши токены утекают в песок

Технический анализ трех локальных LLM на 07.02.2026: сравниваем качество reasoning, потребление токенов и практическую применимость для домашних AI-лабораторий.

Открыть документ
Manual #2956 10 min

Почему RAG для 2000 сотрудников на CPU-сервере обречён на провал: разбор типичных ошибок внедрения корпоративного AI

Почему корпоративный RAG с 2000 пользователями на CPU-сервере обречён. Разбираем реальный кейс с потерей 20k$, расчёт ресурсов GPU и типичные ошибки внедрения A

Открыть документ
Manual #2955 8 min

Claude Code Router на Mac: роутинг между 4 GPU через vLLM и llama-server

Пошаговая настройка распределенного кластера LLM на Mac с 4 GPU. Роутинг запросов между моделями через Claude Code Router, vLLM и llama-server.

Открыть документ
Manual #2954 8 min

SageMaker HyperPod CLI и SDK: когда AWS решила, что управление кластерами должно быть сложным

Полное руководство по CLI и SDK SageMaker HyperPod для распределённого обучения AI моделей. Команды, конфигурация, мониторинг и ошибки.

Открыть документ
Manual #2953 8 min

Локальный перевод с английского на арабский: какие LLM работают лучше Google и как их запустить на RX 6800 XT

Сравнение качества перевода локальных LLM для субтитров. Настройка llama.cpp и Subtitle Edit под AMD RX 6800 XT. Квантование моделей для экономии памяти.

Открыть документ
Manual #2950 8 min

BPE сломался? Морфемная токенизация ускоряет обучение LLM в 2 раза и режет loss

Глубокий разбор: как морфемная токенизация снижает loss на 2.6-5.7% и ускоряет обучение LLM в 2 раза. Пошаговый гайд для русского языка.

Открыть документ
Manual #2946 8 min

Обзор терминальных инструментов для локальных LLM: сравнение aider, TUI Chat, cli-ai и настройка под Linux

Полный гайд по терминальным инструментам для локальных LLM. Сравнение aider, TUI Chat, cli-ai, настройка под Linux, интеграция с Ollama и RTX 4090. Актуально на

Открыть документ
Manual #2943 8 min

Pydantic v2: 4 приёма для валидации больших данных с максимальной скоростью на Rust

Практический гайд по валидации больших данных в Pydantic v2 с использованием Rust-ядра. Annotated, field_validator, производительность, сравнение подходов.

Открыть документ
Manual #2942 8 min

Детерминированная рациональная арифметика: как ускорить ИИ-вычисления в 2-4 раза и убрать ошибки

Практическое руководство по внедрению детерминированной рациональной арифметики и отложенного деления для ускорения Transformer-моделей и устранения накопления

Открыть документ