Учебные материалы
Как Llama 3.1 предсказывает суицидальные мысли лучше психологов: разбираем исследование с 75% точностью
Глубокий разбор исследования, где perplexity от Llama 3.1 предсказывает суицидальный риск с 75% точностью. Код, пайплайн, ошибки и почему это работает.
Когда Sonnet 3.7 умирает: что писать на Mac M2 Ultra с 192GB памяти
GLM 4.7, 4.5 Air, Intellect 3 — тестируем локальные модели для творчества на Mac. Сравнение качества, скорости, потребления памяти.
Построение локального AI-сервера с доступом к файлам: выбор железа, Proxmox, Docker и GPU
Подробное руководство по сборке и настройке локального AI-сервера с доступом к файлам. Выбор железа (Epyc, ZFS), настройка Proxmox, Docker и серверных GPU.
Как создать и обучить свою первую языковую модель с нуля: разбор toyGPT
Пошаговый разбор создания и обучения первой языковой модели с нуля на PyTorch. Архитектура mHC-трансформера, подготовка данных, обучение на GPU.
Когда одного сервера мало: мульти-нод кластер для локальных LLM на примере Kimi K2
Практическое руководство по настройке кластера из 3 узлов Strix Halo для запуска Kimi K2 Thinking. Сравнение vLLM и llama.cpp, производительность 9 t/s, квантов
M2 Ultra vs 2x RTX 3090: какую бомбу купить для локального запуска 70B моделей
Детальный анализ железа для локального запуска 70B моделей. Сравниваем стоимость, скорость генерации, удобство и скрытые расходы. Реальные цифры и практические
RLHF vs DPO: полное руководство по выравниванию ИИ и управлению отказами
Глубокое сравнение RLHF и DPO для выравнивания языковых моделей. Почему ИИ отказывается отвечать, математическая интуиция методов, практические шаги по исправле
AnythingLLM vs CLINE на llama.cpp: кто реально быстрее и почему
Технический разбор архитектурных различий AnythingLLM и CLINE, тесты производительности на llama.cpp, оптимизации для локальных LLM. Практические результаты.
Как дообучить 7B-модель для reasoning на бесплатном Colab с GRPO и TRL: пошаговый гайд
Подробный гайд по тонкой настройке 7B-модели для рассуждений на бесплатном Google Colab (T4) с использованием GRPO и TRL. Оптимизация памяти в 7 раз.
AI-агенты генерируют код быстрее, чем вы успеваете его проверить. Как не утонуть в техническом долге?
Практическое руководство по управлению качеством кода, который генерируют AI-агенты. Как организовать ревью, когда код создается быстрее, чем его можно проверит
Локальный RAG для документов: как выбрать железо для скорости 30-40 токенов/сек на TXT, DOC, PDF
Экспертный гайд по выбору железа для локального RAG с производительностью 30-40 токенов/сек. Сравнение Apple Silicon, Nvidia, варианты развертывания, оптимизаци
Слепой тест LLM для юристов: как мы устроили соревнование моделей и что из этого вышло
Практический гайд по проведению слепого теста LLM в юриспруденции. Методология, ошибки, результаты сравнения моделей и неочевидные выводы.