Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #2280 8 min

Как Cursor индексирует код: разбор RAG-пайплайна для понимания codebase

Подробный разбор RAG-пайплайна в Cursor для индексации codebase. Как работает chunking, embedding и поиск по коду. Актуально на 26.01.2026.

Открыть документ
Manual #2277 8 min

BWT -0.017 в Sequential LoRA Fine-Tuning: как мы победили катастрофическое забывание

Детальный разбор эксперимента с BWT -0.017 в sequential LoRA fine-tuning на Qwen2.5. Практический протокол борьбы с катастрофическим забыванием в continual lear

Открыть документ
Manual #2276 6 min

Как деанонимизировать поведение трансформера на временных рядах: метод интерпретации с интервенционным протоколом

Практический гайд по интерпретации трансформеров на временных рядах с помощью интервенционного протокола и фальсифицируемых тестов. Шаги, код, ошибки.

Открыть документ
Manual #2275 8 min

3060 Ti против llama.cpp: как выжать 20+ токенов в секунду на карте с 8 ГБ VRAM

Пошаговая настройка llama.cpp для RTX 3060 Ti. Выбираем квантование, настраиваем параметры запуска, добиваемся 20+ токенов/сек на моделях 7B-8B.

Открыть документ
Manual #2274 8 min

Пошаговое обучение LLM с нуля на MacBook: полный гайд с PyTorch и MLX

Полное практическое руководство по обучению языковой модели с нуля на MacBook с Apple Silicon. Установка PyTorch, работа с MLX, подготовка датасета, написание и

Открыть документ
Manual #2272 7 min

Студенческий стартап провалился на ИИ-репетиторе для ЕГЭ: вот что мы накопили за 6 месяцев

Пошаговый разбор провального студенческого стартапа по созданию ИИ-репетитора для ЕГЭ на локальных моделях. RAG-система, fine-tuning под математику, промпты для

Открыть документ
Manual #2271 10 min

CPU на 100% при запуске локальных LLM: как заставить GPU работать вместо процессора

Почему GPU простаивает, а CPU на 100%? Полное руководство по настройке Ollama и LM Studio для правильной загрузки видеокарты. Параметры, квантования, ошибки.

Открыть документ
Manual #2270 8 min

Подключаем локальную LLM к облачному GPU: гибридная архитектура для приватности и скорости

Пошаговый гайд по подключению локального фронтенда (Open WebUI) к удаленному облачному GPU через SSH-туннель. Приватность инференса, скорость VLLM и экономия на

Открыть документ
Manual #2269 6 min

Robots.txt не работает: как реально защитить контент от AI-скрейпинга в 2026 году

Почему robots.txt бесполезен против AI-скрейперов. Полный гайд по технической защите (блокировка User-Agent, WAF, трафик) и правовым инструментам (GDPR, DMCA) д

Открыть документ
Manual #2267 13 min

LLM для игровых NPC: как выбрать модель, которая не испортит вашу игру

Практическое сравнение Llama 4, Qwen 3.5, Mixtral 8x22B для создания NPC. Интеграция, промпты, стоимость и типичные ошибки.

Открыть документ
Manual #2266 10 min

Qwen 3 в агентском режиме застрял: почему модель не пишет в файлы через llama-cpp и как это исправить

Пошаговое руководство по диагностике и решению проблемы, когда Qwen 3 в режиме агента не записывает данные в файлы через llama-cpp. Проверка промптов, конфигура

Открыть документ
Manual #2261 8 min

AI-диалоги в ролевых играх: почему подписка съедает ваш бюджет, а токены — нет

Практический разбор экономики AI-диалогов. Считаем реальные затраты на длинные контексты в ролевых играх, сравниваем подписки OpenAI, Anthropic и потокеновую оп

Открыть документ