Учебные материалы
Как подключить несколько мощных GPU к Raspberry Pi 5: практическое руководство по eGPU для ИИ-задач
Практический гайд по подключению нескольких видеокарт к Raspberry Pi 5 через PCIe для запуска локальных LLM. Аппаратная сборка, настройка ПО, тесты производител
Стиль письма — это вектор. Находите авторов и коллабораторов через эмбеддинги
Поиск авторов с похожим стилем письма через эмбеддинги. Практический гайд по анализу стилистических особенностей текста, инструменты и методы.
RX 9070 на Windows для LLM: фальшивая победа AMD или реальная альтернатива NVIDIA?
Полный гайд по настройке AMD Radeon RX 9070 для локальных LLM на Windows. ROCm vs DirectML, сравнение с NVIDIA RTX 5060, разгон, стабильность.
Собираем локальный NotebookLM: стек для генерации видео из документов с приватностью
Пошаговый гайд по сборке локального стека для генерации видео с озвучкой из PDF, DOCX. Ollama, TTS, видеогенерация. Конфиденциальность данных.
Как создать синтетические данные для обучения LLM в финансах: метод DocuLite и результаты
Практическое руководство по генерации синтетических финансовых документов для обучения LLM. Метод DocuLite, инструменты InvoicePy, TemplatePy и результаты с улу
Как оптимизировать энергопотребление при тестировании локальных LLM: гайд по настройке и мониторингу
Практический гайд по снижению счетов за электричество при тестировании локальных LLM. Настройка квантования, управление GPU, мониторинг нагрузки.
Локальные агенты на Qwen и Gemma: как стресс-тестировать, чтобы не сгореть на продакшене
Практическое руководство по стресс-тестированию локальных агентов на Qwen и Gemma. Типичные ошибки, методы защиты, тестовые сценарии.
ИИ против Kubernetes: реальный кейс обновления кластера на 4 версии за 30 минут
Эксперимент с автономным обновлением Kubernetes кластера с помощью reasoning-моделей. Технические детали, ошибки и реальные результаты.
Аблитерированные модели: как «обнулить» Llama 3.3 8B и заставить её говорить всё
Что такое «аблитерированные» модели ИИ, как они обходят цензуру через KL-дивергенцию и почему утечка Llama 3.3 8B изменила правила игры.
Как создать гиперлокальную модель ИИ: кейс Twinkle AI для Тайваня на базе Gemma 3
Пошаговое руководство по созданию гиперлокальной модели ИИ для Тайваня на базе Gemma 3. Тонкая настройка под традиционный китайский, сленг и культурный контекст
Тренировка LoRA для VibeVoice: разбираемся с diffusion-head, acoustic и semantic connector (практическое руководство)
Подробный разбор архитектуры VibeVoice: diffusion-head, acoustic и semantic connector. Практическое руководство по тренировке LoRA для клонирования голоса с при
Бэкенд для VLM в 2026: vLLM против llama.cpp на Ubuntu — выбор, который сломает или ускорит твой проект
Практический разбор: как выбрать бэкенд для VLM (Qwen2.5-VL) на Ubuntu в 2026. vLLM или llama.cpp? Подробное сравнение, тесты производительности и пошаговая нас