Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #246 6 min

GLM 4.5 Air: как заставить модель работать без зацикливания в тул-коллах

Подробный гайд по устранению зацикливания GLM 4.5 Air в тул-коллах. Настройка параметров llama.cpp, выбор TUI и лучшие практики для стабильных агентных моделей.

Открыть документ
Manual #241 8 min

NVLink для двух RTX 3090: стоит ли игра свеч в локальных AI-сборках?

Полный гайд по NVLink для двух RTX 3090 в локальных AI-сборках. Сравнение производительности, пошаговая настройка, водяное охлаждение и альтернативы.

Открыть документ
Manual #238 6 min

Хаос второго порядка: как ИИ-боты сливают деньги, играя сами с собой на бирже

Глубокий анализ проблемы хаоса второго порядка в алгоритмическом трейдинге: как ИИ-боты, торгуя друг с другом, создают нестабильность и сливают деньги. RSI стра

Открыть документ
Manual #237 8 min

AI-агенты как сотрудники: какие управленческие принципы из реального офиса работают?

Практический гайд по применению управленческих принципов из реального офиса к AI-агентам. Архитектура, оркестрация, контроль и мотивация искусственных сотрудник

Открыть документ
Manual #231 8 min

Как заставить ИИ правильно считать и показывать время: прорыв в тонкой настройке моделей

Полное руководство по fine-tuning ИИ для точного счета времени и генерации аналоговых часов. Решаем классическую проблему генеративных моделей.

Открыть документ
Manual #228 8 min

Лучшие локальные LLM для RTX 5080: обзор моделей с тул-коллингом и контекстом 32K+

Подробный обзор и сравнение локальных LLM моделей (Qwen, Nemotron, Mistral) с тул-коллингом и контекстом 32K+ для новой видеокарты RTX 5080. Настройка, тесты, р

Открыть документ
Manual #225 7 min

GB10 vs RTX vs Mac Studio: 128GB памяти против скорости генерации — что выбрать для AI-разработки?

Практический гайд по выбору железа для AI-разработки. Сравнение GB10, RTX и Mac Studio: память 128GB vs скорость генерации. Для веб-разработчиков и работы с LLM

Открыть документ
Manual #222 6 min

BGE M3 vs EmbeddingGemma vs Qwen3: какой эмбеддинг-моделью заменить OpenAI в продакшене?

Полный гайд по выбору open-source эмбеддинг-модели для замены OpenAI в продакшене. Сравнение BGE M3, EmbeddingGemma и Qwen3 для RAG-систем.

Открыть документ
Manual #218 7 min

Как настроить темперамент ChatGPT: полный гид по новым настройкам Warmth и Enthusiasm

Подробное руководство по настройке тона ChatGPT с помощью параметров Warmth и Enthusiasm. Как персонализировать общение с ИИ для разных задач.

Открыть документ
Manual #217 7 min

Собираем ПК для локальных LLM за копейки: 3× RTX 3090 и eGPU на 96 ГБ VRAM

Пошаговый гайд по сборке мощного и дешёвого ПК для локальных языковых моделей на 3 видеокартах RTX 3090 с eGPU. Решение проблем совместимости и PCIe lanes.

Открыть документ
Manual #216 7 min

Llama.cpp в LXC-контейнере на Proxmox: полный гайд по запуску LLM на AMD

Пошаговое руководство по развертыванию локальных LLM через Llama.cpp в LXC-контейнерах Proxmox на оборудовании AMD. Оптимизация, настройка и устранение ошибок.

Открыть документ
Manual #215 5 min

Гипотеза Римана и ИИ: как статистика может взломать величайшую задачу математики

Разбираем, как методы статистики и машинного обучения помогают приблизиться к доказательству гипотезы Римана. Практические подходы и алгоритмы.

Открыть документ