Учебные материалы
Как Роберт Мартин (Uncle Bob) использует AI-ассистентов для отладки: разбор реального кейса
Как автор "Чистого кода" использует Claude и Grok для отладки и оптимизации. Практические примеры, сравнение моделей и ошибки, которые совершают 90% разработчик
Scalable Power Sampling: как улучшить рассуждения LLM без дообучения и снизить латенцию в 10 раз
Новый training-free алгоритм для улучшения reasoning LLM. Снижает латенцию в 10 раз без дообучения моделей. Объяснение метода, сравнение с MCMC и GRPO.
Пишем и делимся высокопроизводительными ROCm-ядрами для PyTorch: полный гайд на примере GEMM
Пошаговое руководство по разработке и публикации высокопроизводительных ROCm-ядер для PyTorch на примере GEMM kernel. Инструменты, оптимизации, ошибки.
Бесплатный AI-сервер за 30 минут: Qwen2.5-3B на Oracle Cloud с llama.cpp
Пошаговое руководство по запуску Qwen2.5-3B на бесплатном сервере Oracle Cloud с llama.cpp, квантованием Q4_K_M и бэкендом для продакшена. CPU-инференс, классиф
AI-кодинг 2026: как перейти с ручного программирования на управление агентами (на примере опыта Андрея Карпатого)
Андрей Карпатый признал: ручное программирование умирает. Полный гайд по переходу на управление AI-агентами в 2026 году с Claude Opus 4.5 и GPT-5.2.
Differential Transformer V2: разбор кода и сравнение производительности с V1
Подробный разбор кода Differential Transformer V2 от Microsoft, сравнение производительности с V1, оптимизация внимания и grouped query attention.
Повторяем эксперимент Карпати: как за $100 обучить модель лучше GPT-2
Практическое руководство по повторению эксперимента Андрея Карпати — обучение nanochat модели, превосходящей GPT-2, всего за $100. Архитектура, код, нюансы.
Маленькие LLM против гигантов: когда ваш ноутбук сможет заменить Gemini 3 Flash
Экспертный разбор: смогут ли маленькие LLM на вашем ПК заменить Gemini 3 Flash для генерации JSON и игр. Квантование, MoE, дистилляция и реалистичные сроки.
LLM-IDS/IPS для nginx на DGX Spark: строим систему безопасности на gpt-oss-120b
Создаем систему обнаружения атак для nginx на локальном DGX Spark с gpt-oss-120b. Полный туториал: архитектура, ложные срабатывания, Telegram-уведомления, автоб
vLLM CPU Offloading: Как заставить 70-миллиардную модель работать на GTX 1060
Полный гайд по vLLM CPU Offloading — запускаем большие модели на слабом железе с оффлоадингом слоев в RAM. Настройка, оптимизация, практические примеры.
Как преодолеть скептицизм коллег: практическое руководство по демонстрации возможностей локальных нейросетей (GPT, LLaMA)
Практическое руководство по демонстрации локальных нейросетей коллегам. Узнайте, как преодолеть скептицизм, выбрать модель, настроить демо и избежать ошибок. Ак
Intel Arc B770/B60 для LLM: кошмар вместо альтернативы NVIDIA
Почему Intel Arc B770 и B60 — плохой выбор для локальных LLM в 2026 году. Проблемы с драйверами Linux, шумом кулера, отставание llm-scaler и нестабильность llam