Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #1843 10 min

Когда фреймворки слишком сложны: 5 десктопных приложений для создания AI-агентов без кода

Обзор простых десктопных приложений для создания кастомных AI-агентов локально. LM Studio, Jan, Faraday и другие — без фреймворков и программирования.

Открыть документ
Manual #1842 10 min

Локальный 'слой истины' для Claude Code: убиваем 90% галлюцинаций в терминале

Рабочий метод с Apidog CLI для детерминированной проверки API. Практический гайд по созданию локального слоя истины, который делает терминальных агентов предска

Открыть документ
Manual #1841 11 min

HR-автоматизация 2026: как заставить LLM читать резюме вместо вас и не сойти с ума

Пошаговый разбор системы автоматического скрининга резюме на открытых LLM. От идеи до продакшена. Реальные метрики, код, ошибки и как их избежать.

Открыть документ
Manual #1838 8 min

Искусственный интеллект пишет как человек: гайд по созданию экспертных статей, которые не отличишь от ручной работы

Практическое руководство по созданию качественных статей с помощью нейросетей. Узнайте, как обходить ИИ-детекторы, писать человеческие промпты и создавать уника

Открыть документ
Manual #1837 9 min

Gonka: как заработать на децентрализованных AI-вычислениях, арендуя чужой GPU

Пошаговый гайд по запуску ноды Gonka для заработка на AI-вычислениях. Настройка, расчёт ROI, сравнение с облачными провайдерами на 2026 год.

Открыть документ
Manual #1836 6 min

GLM 4.7 Flash: как отключить шизофрению в ответах и ускорить в 2 раза

Настройка температуры, top-k и отключение flash attention в llama.cpp для исправления некорректного вывода GLM 4.7 Flash. Практический гайд на январь 2026.

Открыть документ
Manual #1831 7 min

Когда 48GB VRAM не хватает: какие локальные модели реально работают с промптами как у Claude Code

Эмпирическое исследование: какие модели на 48GB VRAM справляются с системными промптами в 20k токенов. Тесты Qwen3, GLM 4.6v, реальные показатели памяти.

Открыть документ
Manual #1829 8 min

Когда 70B слишком много: лучшие модели 7-14B для админа и пентестера в 2026

Обзор и тестирование компактных LLM для Linux-администрирования, кибербезопасности и DevSecOps в 2026 году. DeepSeek-Coder, Qwen2.5-Coder, CodeLlama и другие.

Открыть документ
Manual #1828 7 min

Strix Halo vs RTX 5080: строим персональную AI-лабораторию для обучения LoRA и инференса больших моделей

Подробный гайд по выбору железа для персональной AI-лаборатории: Strix Halo с 128 ГБ ОЗУ против RTX 5080 для обучения LoRA, инференса Qwen 235B и экспериментов

Открыть документ
Manual #1827 6 min

Почему модель спорит с пользователем: разбираем «цензуру» dolphin-2.9-llama3-8b и как её исправить

Гайд по исправлению цензуры в локальной модели dolphin-2.9-llama3-8b: меняем системный промпт, параметры, ставим uncensored версии. Работаем в Ollama, LM Studio

Открыть документ
Manual #1826 9 min

RLM: практическое руководство по созданию LLM-агентов без контекстного дрейфа и потери цели

Полное практическое руководство по созданию LLM-агентов на архитектуре RLM. Устраняем контекстный дрейф и потерю цели с помощью рекурсивных вызовов. Примеры код

Открыть документ
Manual #1825 10 min

Тестирование Deep Agents: single-step, full-turn и multiple-turn — что работает в 2026

Полное руководство по тестированию Deep Agents в 2026. Single-step, full-turn и multiple-turn методологии, практические примеры и инструменты для оценки.

Открыть документ