Учебные материалы
Забей на облака: Запускаем локальную LLM на iPhone для суммирования встреч
Полное руководство по запуску локальных языковых моделей на iPhone для автономного суммирования встреч. Модели, квантование, CoreML и оптимизация на 25.01.2026.
Kinoscriber: как транскрибировать видео локально без интернета и платных подписок
Полный обзор Kinoscriber - веб-приложения для создания субтитров. Тестируем модели Parakeet 2.3, сравниваем скорость и точность, разбираем установку и типичные
MiniMax Agent: как за 15 минут создать интерактивное 3D-приложение без кода на примере модели Солнечной системы
Пошаговый гайд по созданию интерактивной 3D-модели Солнечной системы с помощью MiniMax Agent. Без программирования и сложных инструментов.
Семь GPU ревут: считаем, сколько съедает LLM-ферма и как вернуть деньги
Практический гайд по расчету энергозатрат LLM-фермы с 7 GPU. Idle power, пиковая нагрузка до 2500W, оптимизация и реальный ROI.
NVMe Swapping: Как запустить ЛЮБУЮ модель Ollama на одном сервере и забыть про OOM ошибки
Техника NVMe Swapping позволяет запускать любые модели Ollama на одном сервере. Экономия VRAM, избавление от OOM ошибок, практическое руководство.
Qwen3-VL-8B генерирует кривой JSON? Вот как настроить сэмплеры и исправить всё
Практический гайд: оптимальные параметры сэмплеров для Qwen3-VL-8B. Исправляем плохой JSON и низкое качество ответов. Настройка температуры, top_p, top_k, penal
Mac Mini M4 16 ГБ: ловушка для энтузиастов локальных LLM?
Практический разбор: какие LLM реально запустить на Mac Mini M4 с 16 ГБ, сравнение с ПК и честный ответ — стоит ли покупать в 2026 году.
LM Studio OOM на Windows: Почему Full GPU Offload жрёт оперативную память как сумасшедший
Разбираемся, почему LM Studio с Full GPU Offload на Windows ест оперативку даже при 32 ГБ RAM. Полное руководство по GGUF-моделям, распределению памяти и фиксу
DGX Spark: тестирование реальной производительности матричного умножения (GEMM) и анализ аномалий INT4
Практическое тестирование реальной производительности матричного умножения на DGX Spark. Анализ аномалий INT4, сравнение TFLOP, настройка CUDA ядер и оптимизаци
Локальные LLM против интернет-цензуры: как настроить Gemma3 и Qwen3 для обхода блокировок
Пошаговый гайд по настройке локальных LLM (Gemma3 12B, Qwen3 8B) для автономной работы без интернета. Обход блокировок, офлайн-модели, llama.cpp.
SAM 3 против специализированных детекторов: реальные цифры, которые заставят вас передумать
Сравнение Segment Anything Model 3 с кастомными детекторами: время инференса 1100ms на P100, точность и когда тренировать свою модель бессмысленно.
RTX 4090 48GB: Хардверный хак от Northridge Fix, который NVIDIA скрывает
Пошаговое руководство по замене памяти на RTX 4090 до 48 ГБ. Модификация для запуска Llama 3.3 405B локально. Все риски, инструменты и тесты производительности.