Учебные материалы
Оптимизация llama.cpp под AMD видеокарты: Vulkan vs ROCm — полный гайд 2025
Полное руководство по настройке llama.cpp для AMD видеокарт. Сравнение Vulkan и ROCm бэкендов, установка драйверов, оптимизация производительности и решение про
Как запустить Llama.cpp в LXC-контейнере Proxmox: гайд для энтузиастов
Полное руководство по запуску Llama.cpp в LXC-контейнере Proxmox с поддержкой GPU. Настройка, оптимизация и решение проблем для локальных LLM.
Почему SOTA-модели (GLM 4.7, Kimi K2) прерываются в Claude Code? Подробное решение
Исчерпывающее руководство по настройке SOTA-моделей в Claude Code: устранение обрывов, таймаутов и оптимизация мультистепового выполнения.
Обзор лучших LLM с поддержкой Tool Calling для локального запуска в 2025
Полный обзор LLM с вызовом инструментов для локального запуска. Сравнение моделей, требования к железу, пошаговая настройка и практические примеры.
Как собрать голосового ассистента на одной видеокарте: STT, LLM и TTS на RTX 3090
Пошаговое руководство по сборке локального голосового ассистента на одной видеокарте RTX 3090. Распознавание речи (STT), языковая модель (LLM) и синтез речи (TT
Мультимодальный RAG в 2025: новые подходы для работы с текстом, изображениями, аудио и видео
Глубокий разбор мультимодального RAG в 2025: архитектуры, инструменты, векторные базы данных и практическая реализация для работы с разными типами данных.
NPU против GPU: что лучше для локального запуска нейросетей в 2024
Полное сравнение NPU и GPU для локального запуска нейросетей в 2024. Разбираем производительность, стоимость, энергоэффективность и даем рекомендации по выбору
Запуск современных LLM на старом железе: подробный гайд на примере Dell T7910
Пошаговое руководство по запуску современных языковых моделей на старом сервере Dell T7910. Квантизация, оптимизация памяти, выбор видеокарты и практические сов
Что такое квантизация GGUF? Разбираем форматы Q3_K_M и Q3_K_XL на примере GLM-4.7
Подробное объяснение квантизации GGUF, сравнение форматов Q3_K_M и Q3_K_XL на примере GLM-4.7. Как сжать модель без потери качества, оптимизировать память и уск
Где брать данные для обучения и fine-tuning: скрапинг, открытые датасеты или платные
Полное руководство по выбору данных для обучения и fine-tuning моделей: сравнение скрапинга, открытых и платных датасетов с юридическими и техническими аспектам
Dual RTX 3090 с NVLink: полный гайд по настройке для локальных LLM
Полное руководство по сборке и настройке системы с двумя RTX 3090 и NVLink для запуска больших языковых моделей. Аппаратные требования, установка, оптимизация п
Проблема с загрузкой больших LLM на AMD Strix Halo: решение ошибки 'Unable to allocate ROCm0 buffer'
Полное руководство по решению ошибки 'Unable to allocate ROCm0 buffer' при загрузке 120B+ моделей на AMD Ryzen AI Max+ 395. Настройка VGM, выделение VRAM, работ