Учебные материалы
RTX 5090 в слезах: почему ваша локальная LLM для кодирования работает как пьяный стажёр
Разбираем, почему локальные LLM для кодирования работают плохо на RTX 5090, как настроить окружение и какие инструменты использовать в 2026 году.
Opencode против Claude Code: как архитектурные различия убивают производительность в мультиагентах
Глубокий разбор архитектур Opencode и Claude Code для мультиагентных систем. Dynamic Context Pruning, оркестрация, тесты на H200 и реальные цифры.
Забей на ChatGPT: 20 реальных кейсов локальных LLM, которые работают без интернета
От анализа данных до автоматизации кода. 20 реальных кейсов использования локальных LLM в 2026 году. Ollama, LM Studio, приватный ИИ без интернета.
Opencode: как собрать мультиагентную фабрику кода с оркестратором, воркерами и ревьюерами
Пошаговый гайд по созданию мультиагентной системы кодирования с Opencode. Архитектура с оркестратором, spawn worker и ревьюерами для автоматической разработки.
CPU-only MoE: как запустить 120B модели на DDR5 и не сойти с ума
Полное руководство по запуску MoE-моделей на CPU и DDR5. Расчёт скорости inference, настройка XMP/EXPO, выбор квантования Q4_K_M. Примеры для GLM-4.7-Flash, GPT
Skills, MCP и сабагенты: как собрать AI-агента из LEGO в 2026 году
Полный гайд по архитектуре AI-агентов: Skills для знаний, MCP для инструментов, сабагенты для воркфлоу. Как собрать систему, которая не тупит и помнит всё.
Почему AMD GPU медленнее в обрабатывает промпты: архитектурный разбор от софта до кремния
Глубокий разбор, почему AMD видеокарты тормозят с промптами. ROCm vs Vulkan, аппаратные ограничения RDNA, реальные цифры и можно ли это исправить в 2026 году.
Контекст-инжиниринг и Vibe Proving: что будет после того, как промпт-инжиниринг умрет
Продвинутые техники работы с LLM после промптов: контекст-инжиниринг, Vibe Proving, самоулучшающиеся workflow. Практическое руководство.
Docker-среда для SAP-автоматизации: Клод, браузер и локальный AI в одном контейнере
Пошаговый гайд по созданию Docker-среды для автоматизации SAP с Claude Code, MCP плагинами и локальным vLLM. Рабочий стек на 2026 год.
Эпистемическая калибровка: как DeepSeek и MiMo обманывают своей уверенностью
Практический гайд по оценке эпистемической калибровки LLM. Тестируем избыточную уверенность DeepSeek и MiMo с реальными примерами ошибок на 2026 год.
Pokemon Red на автопилоте: как собрать AI-агента на чистом браузере
Подробный гайд по созданию автономного AI-агента для Pokemon Red в браузере без серверов. WebLLM, TensorFlow.js и WASM-эмулятор на практике.
LLM на старом ноутбуке: заставляем модель работать там, где она не должна
Подробный гайд по запуску TinyLlama и других моделей на слабом железе. Контекстное прунирование, мониторинг энтропии Шеннона, Python скрипты.