Учебные материалы
Разгон 6700XT под ROCm: полный гайд по сборке стека для локальных LLM
Подробное руководство по разгону AMD Radeon 6700XT и сборке полного стека ПО для локальных языковых моделей (LLM) под ROCm с OpenWeb UI и мультимодальностью.
Локальная замена TalkTasic: какие OSS-модели умеют видеть экран и диктовать код?
Полный гайд по сборке локального аналога TalkTasic на открытых мультимодальных моделях. Обзор моделей с поддержкой зрения и слуха, пошаговая интеграция и решени
Как запустить локальную LLM-инфраструктуру на домашнем железе (192GB RAM + GPU)
Пошаговое руководство по развертыванию многопользовательской LLM-инфраструктуры на домашнем сервере с 192GB RAM и GPU. Proxmox, OpenWebUI, GPU passthrough.
AMD vs NVIDIA для локального ИИ в 2025: наконец-то паритет или всё ещё ад?
Полное сравнение AMD и NVIDIA GPU для локального ИИ в 2025. Совместимость с LM Studio, производительность, настройка под Linux и ответ на вопрос: паритет или не
Как собрать домашний ИИ-сервер на Orange Pi: гайд по установке Ollama и запуску 70B моделей
Пошаговый гайд по сборке домашнего ИИ-сервера на Orange Pi с Ascend 310. Установка Ollama, драйверов и запуск больших LLM моделей.
Децентрализованные 4090 vs AWS H100: калькулятор для тонкой настройки Llama 3 70B
Практический гайд по выбору железа для тонкой настройки Llama 3 70B: децентрализованные 4090 vs AWS H100 с калькулятором затрат и производительности.
Создаём персонального ИИ-ассистента на Raspberry Pi 5: читаем почту и управляем календарём
Подробное руководство по созданию приватного ИИ-ассистента на Raspberry Pi 5 для управления почтой и календарём без облаков. FunctionGemma, Python, автономность
Сравнение: локальные модели vs GPT-4 — насколько можно приблизиться за $5000?
Подробный анализ: какие локальные модели можно получить за $5000, как они конкурируют с GPT-4 в кодировании, RAG и творческих задачах. Бенчмарки, железо, реальн
Как Llama 3.2 3B думает внутри: удивительные находки трассировки активаций
Пошаговый гайд по reverse engineering активаций Llama 3.2 3B. Узнайте, как анализировать внутренние механизмы модели с помощью circuit analysis.
Как ИИ-анализ вашего плейлиста раскроет вашу личность лучше психолога
Пошаговое руководство по анализу музыкальных предпочтений с помощью ИИ. Узнайте, как векторизация треков и языковые модели раскрывают ваши паттерны мышления.
GLM 4.7 против DeepSeek и Qwen: реальное сравнение для разработки на Python и React
Практическое сравнение GLM 4.7, DeepSeek и Qwen для реальных задач разработки на Python и React. Тесты, примеры кода и рекомендации.
F16 vs Q8_0: Когда квантование убивает качество? Практический гайд по выбору формата для медицинских моделей
Разбираем, когда квантование в Q8_0 убивает качество медицинских моделей на примере MedGemma. Практическое сравнение F16 и Q8_0, метрики и рекомендации.