Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #1013 7 min

Как Llama 3.1 предсказывает суицидальные мысли лучше психологов: разбираем исследование с 75% точностью

Глубокий разбор исследования, где perplexity от Llama 3.1 предсказывает суицидальный риск с 75% точностью. Код, пайплайн, ошибки и почему это работает.

Открыть документ
Manual #1012 6 min

Когда Sonnet 3.7 умирает: что писать на Mac M2 Ultra с 192GB памяти

GLM 4.7, 4.5 Air, Intellect 3 — тестируем локальные модели для творчества на Mac. Сравнение качества, скорости, потребления памяти.

Открыть документ
Manual #1011 7 min

Построение локального AI-сервера с доступом к файлам: выбор железа, Proxmox, Docker и GPU

Подробное руководство по сборке и настройке локального AI-сервера с доступом к файлам. Выбор железа (Epyc, ZFS), настройка Proxmox, Docker и серверных GPU.

Открыть документ
Manual #1009 6 min

Как создать и обучить свою первую языковую модель с нуля: разбор toyGPT

Пошаговый разбор создания и обучения первой языковой модели с нуля на PyTorch. Архитектура mHC-трансформера, подготовка данных, обучение на GPU.

Открыть документ
Manual #1006 11 min

Когда одного сервера мало: мульти-нод кластер для локальных LLM на примере Kimi K2

Практическое руководство по настройке кластера из 3 узлов Strix Halo для запуска Kimi K2 Thinking. Сравнение vLLM и llama.cpp, производительность 9 t/s, квантов

Открыть документ
Manual #1005 8 min

M2 Ultra vs 2x RTX 3090: какую бомбу купить для локального запуска 70B моделей

Детальный анализ железа для локального запуска 70B моделей. Сравниваем стоимость, скорость генерации, удобство и скрытые расходы. Реальные цифры и практические

Открыть документ
Manual #1001 6 min

RLHF vs DPO: полное руководство по выравниванию ИИ и управлению отказами

Глубокое сравнение RLHF и DPO для выравнивания языковых моделей. Почему ИИ отказывается отвечать, математическая интуиция методов, практические шаги по исправле

Открыть документ
Manual #1000 9 min

AnythingLLM vs CLINE на llama.cpp: кто реально быстрее и почему

Технический разбор архитектурных различий AnythingLLM и CLINE, тесты производительности на llama.cpp, оптимизации для локальных LLM. Практические результаты.

Открыть документ
Manual #999 6 min

Как дообучить 7B-модель для reasoning на бесплатном Colab с GRPO и TRL: пошаговый гайд

Подробный гайд по тонкой настройке 7B-модели для рассуждений на бесплатном Google Colab (T4) с использованием GRPO и TRL. Оптимизация памяти в 7 раз.

Открыть документ
Manual #998 8 min

AI-агенты генерируют код быстрее, чем вы успеваете его проверить. Как не утонуть в техническом долге?

Практическое руководство по управлению качеством кода, который генерируют AI-агенты. Как организовать ревью, когда код создается быстрее, чем его можно проверит

Открыть документ
Manual #996 9 min

Локальный RAG для документов: как выбрать железо для скорости 30-40 токенов/сек на TXT, DOC, PDF

Экспертный гайд по выбору железа для локального RAG с производительностью 30-40 токенов/сек. Сравнение Apple Silicon, Nvidia, варианты развертывания, оптимизаци

Открыть документ
Manual #993 10 min

Слепой тест LLM для юристов: как мы устроили соревнование моделей и что из этого вышло

Практический гайд по проведению слепого теста LLM в юриспруденции. Методология, ошибки, результаты сравнения моделей и неочевидные выводы.

Открыть документ