Учебные материалы
GUI-агенты: как они видят, думают и учатся на наших ошибках
Разбираемся, как работают GUI-агенты типа MAI-UI: компьютерное зрение, MCP-инструменты, самообучающиеся данные и reinforcement learning.
Генерация изображений на AMD: Stable Diffusion работает или это досихпор боль?
Полный гайд по запуску Stable Diffusion на AMD видеокартах. ROCm, совместимость, скорость, ошибки и реальные альтернативы для генерации изображений.
Запускаем LLM на Android с NPU: обзор клиентов с аппаратным ускорением
Полный обзор клиентов для запуска LLM на Android с аппаратным ускорением NPU. MLC Chat, FOSS решения, настройка, сравнение производительности и практические сов
Kaggle по AI-агентам: как Google и NVIDIA учат строить продакшен-агентов
Подробный разбор курса Kaggle по AI-агентам: архитектуры, планирование, инструменты и production deployment от экспертов Google и NVIDIA.
VL-JEPA на своём железе: как заставить Apple Silicon понимать картинки без облаков
Пошаговая инструкция по запуску VL-JEPA на Mac с Apple Silicon. Установка MLX, загрузка модели, первые эксперименты с vision-language моделью.
Твои литературные вкусы — это код. Давай его декомпилируем через ChatGPT
Пошаговый гайд с промптами и Python-кодом для анализа книжных предпочтений через ChatGPT. Кластеризация интересов, векторные представления, личный гайд.
LoopCoder: как работает архитектура с повторяющимися слоями для генерации кода
Глубокое объяснение архитектуры LoopCoder для генерации кода: повторяющиеся трансформеры, общие веса, глобальное и локальное внимание. Как это работает и почему
Как выделить 128 ГБ памяти для AMD iGPU в Linux через GTT: гайд для разработчиков AI
Пошаговое руководство по настройке Graphics Translation Table для выделения 128 ГБ памяти под AMD iGPU в Linux. Решение проблем с VRAM для разработки AI моделей
LM Studio MCP: Запускаем AI-агента для автоматизации новостей на GPT-OSS 20B — без API, денег и слежки
Пошаговый гайд по настройке локального AI-агента в LM Studio с MCP для автоматического сбора и анализа новостей без API и облаков.
Interleaved Thinking в Minimax M2.1: как работают теги и настройка клиентов
Полное руководство по Interleaved Thinking в Minimax M2.1. Настройка chat template, работа с reasoning tokens, интеграция с Open-WebUI, SillyTavern и EXL3 квант
Tuneable Attention: как расширение, а не сжатие внимания ускоряет обучение LLM
Практическое руководство по Tuneable Attention - техника ускорения обучения языковых моделей на бюджетном железе через расширение механизма внимания.
Как запустить DeepSeek V3.2 в llama.cpp: патч для конвертации и тестирования без sparse attention
Пошаговое руководство по применению патча для конвертации DeepSeek V3.2 в GGUF и запуску в llama.cpp без поддержки sparse attention.