Учебные материалы
Intel Arc Pro B60 для LLM: бюджетная альтернатива RTX 3090? Разбор железа для бедных
Практический гайд по настройке Intel Arc Pro B60 для локальных LLM. Сравнение с RTX 3090 по цене, производительности и стоимости владения.
Проблема с PocketPal и Snapdragon 8 Gen 5: Почему NPU не работает и что делать дальше
Разбираемся, почему PocketPal не использует NPU в новых Snapdragon 8 Gen 5. Полный обзор рабочих альтернатив для запуска LLM на Android в 2025 году.
Контекстная слепота агентов: почему ваша автоматизация ломается и как её починить
Практическое руководство по преодолению контекстной слепоты AI-агентов. Обзор AI Mime, методика записи workflow и пошаговая инструкция по автоматизации рабочего
Что такое imatrix и когда её стоит использовать: гайд по квантованию для специализированных моделей
Объясняем, что такое imatrix, когда она спасает качество специализированных моделей, а когда только мешает. Пошаговый гайд с кодом и сравнением с GGUF.
BPMN для оркестрации ИИ-агентов: почему старый стандарт стал ключевым для enterprise-автоматизации
Почему старый BPMN стал основой для управления ИИ-агентами в корпорациях. Практическое руководство по созданию производственных workflow с оркестрацией и аудито
Гибридный подход к RAG: построение индекса на GPU и обслуживание на CPU для масштабируемости и экономии
Практическое руководство по разделению RAG-системы: быстрая сборка индекса на GPU и дешёвое обслуживание на CPU. Снижаем TCO на 60-70% без потери качества.
Две Radeon AI Pro R9700 в одной системе: как заставить ROCm работать и построить оркестрацию агентов для локальных LLM
Практический опыт настройки двух видеокарт ASRock Radeon AI Pro R9700 для локальных LLM. ROCm проблемы, схема оркестрации агентов, Qwen3-vl квантование.
Заблокированная нейросеть: как дать локальной LLM доступ в интернет через Docker и Ministral
Практический гайд: даем локальной нейросети доступ к веб-страницам и актуальным данным через Docker, Ministral и обратный прокси. Пошаговая инструкция с примера
Сборка multi-GPU сервера для LLM: разбор кейса с 8× RTX 3090 и проблемы стабильности
Подробный разбор реального кейса сборки сервера с 8 видеокартами RTX 3090 для запуска больших языковых моделей. PCIe ризеры, проблемы bifurcation, стабильность
Напечатай на коленке: Полный цикл создания 3D-игрушки с помощью ИИ от текста до физического объекта
Пошаговый гайд: как превратить текстовое описание в 3D-игрушку с помощью Meshy AI, Tripo 3D и Kandinsky 5.0. Генерация моделей, подготовка к печати, постобработ
Локальный ИИ против Copilot: как сохранить карьерное преимущество в эпоху корпоративных нейросетей
Узнайте, как использовать локальный ИИ для карьерного роста в компании с Copilot. Безопасность данных, конкурентное преимущество, пошаговая настройка.
Безоблачный AI в игре: как запустить локальную Llama 3.1 на 6 ГБ VRAM через Tauri
Практический гайд по интеграции Llama 3.1 в desktop-приложения через Tauri. Оптимизация под 6 ГБ VRAM, настройка llama-server с Vulkan, выбор Q4_K_M квантования