Учебные материалы
Практическое руководство: как собрать локальный AI-агент для iPhone с llama.cpp и Metal
Пошаговое руководство по созданию локального AI-агента для iPhone с использованием llama.cpp и Metal. Выбор модели, квантование, tool calling и оптимизация под
AI-агент для Godot 4: Как заставить нейросеть видеть, что она накодила
Пошаговое руководство по созданию AI-агента, который не только пишет код для Godot 4, но и анализирует скриншоты игры, чтобы самостоятельно вносить правки. MCP-
Бенчмарк Lost-in-the-Middle: как тестировать LLM на потерю знаний в длинных документах
Практический гайд по использованию бенчмарка Lost-in-the-Middle для оценки потери знаний LLM в длинных документах. Анализ ошибок, пошаговая инструкция, актуальн
Как избежать катастрофы с ИИ-агентом: уроки из случая удаления продакшена Claude Code
Полное руководство по безопасности ИИ-агентов: принцип наименьших прав, резервные копии AWS, изоляция сред и мониторинг на основе реального инцидента с Claude C
State Flow Machine: как замена трансформеров добивается 79% удержания длины контекста
Глубокий разбор архитектуры State Flow Machine. Как FlashLM и SlotMemoryAttention решают проблему квадратичной сложности трансформеров и дают 79% retention на д
Круши цензуру: как собрать свою uncensored LLM из Qwen и знаний Claude Opus за один вечер
Пошаговый гайд по созданию uncensored LLM. Слияние тензоров Qwen3.5 9B, дистилляция знаний Claude Opus, готовый код на Google Colab для моделей без цензуры.
Разоблачение TB2: как задача db-wal-recovery ломает бенчмарки и как её правильно решить
Глубокий разбор задачи db-wal-recovery из Terminal Bench 2.0. Почему стандартные бенчмарки пасуют перед SQLite WAL и XOR шифрованием. Пошаговое решение.
Homelab для LLM: как окупить сервер на H100 за счёт экспериментов с большими моделями
Реальный кейс: как собрать домашний сервер на H100 для экспериментов с LLM и окупить его, сэкономив на облачных вычислениях. Расчёты, настройка Grafana, выбор ж
Тест производительности: ik_llama.cpp против llama.cpp на Qwen3/3.5 MoE - 40% прирост или оптимизация под копирку?
Полный бенчмарк ik_llama.cpp и llama.cpp на Qwen3/3.5 MoE. Команды, настройки, реальный прирост скорости до 40%. Аппаратная конфигурация, квантование Q4_K_M, ан
Практическое руководство по разработке AI-агентов: критика MCP, безопасность и архитектурные принципы
Глубокий разбор ошибок в создании AI-агентов: почему MCP и терминал опасны. Практические принципы безопасности и архитектуры для надежных систем на 15.03.2026.
Как ускорить long context диалоги на Apple Silicon в 200 раз: эксперимент с KV cache в MLX
Подробный эксперимент с KV cache в MLX: как добиться ускорения в 200 раз для long context диалогов на Mac, разбор ошибок с thinking tokens, практическое руковод
Kotlin HumanEval: 14B-модель громит 70B-гигантов, и вот почему ваши бенчмарки врут
Результаты бенчмарка Kotlin HumanEval на 15.03.2026: маленькая локальная LLM обогнала гигантов. Анализ pass@1, pass@3 и почему размер не главное.