Учебные материалы
Federated Learning с Flower Framework: полное руководство для начинающих на Python
Практическое руководство по федеративному обучению на Flower Framework. Код, разбор ошибок и применение для приватных данных в медицине и на edge-устройствах.
GLM-4.6V думает слишком много: как отрубить reasoning и ускорить модель в 3 раза
Практическое руководство по ограничению reasoning в GLM-4.6V. Настройка параметров, сравнение с Qwen3, бенчмарки ArtificialAnalysis и оптимизация для продакшена
MiniMax 2.1 против Claude: практический разбор кейса разработки агента и реальная экономия
Практический разбор: замена Claude на MiniMax 2.1 для генерации кода. Реальная экономия 85%, сравнение качества, пошаговая миграция и подводные камни.
Запуск LLM на Raspberry Pi: как избежать износа microSD и оптимизировать setup
Подробный гайд по запуску локальных LLM на Raspberry Pi без убийства карты памяти. Настройка Ollama, перенос на SSD, оптимизация swap и памяти.
Как запустить GPT OSS и Qwen VL на 6 ГБ VRAM: создание кастомного MCP-сервера
Пошаговый гайд по созданию кастомного MCP-сервера для запуска двух больших моделей на ограниченной видеопамяти. Оптимизация памяти, настройка llama.cpp, решение
Делим одну GPU на всех: vGPU, MIG и другие способы совместной работы с LLM без драк за железо
Как разделить одну видеокарту между несколькими пользователями для работы с LLM. Полное сравнение vGPU, MIG, Slurm и Open OnDemand с пошаговой настройкой.
Полное руководство по выбору GGUF-модели: K-Quants vs I-Quants, сравнение форматов и рекомендации по загрузке
Подробное руководство по выбору GGUF-моделей: сравнение форматов квантования K-Quants и I-Quants, практические рекомендации для llama.cpp.
Цензура LLM: режем на живую или хирургически удаляем? NPBA против PRISM
Глубокий разбор двух методов удаления цензуры из языковых моделей: Norm-Preserving Biprojected Abliteration и PRISM. Тесты, примеры, что выбрать для uncensored
Сравнение локальных AI-моделей для генерации изображений и видео на RTX 5090: SD3, Flux, SVD и другие
Практическое сравнение Stable Diffusion 3, Flux.1 Dev, Stable Video Diffusion для генерации изображений и видео на RTX 5090. Требования к памяти, скорость, каче
Работа найдется: как заставить AI-агента проходить HR-фильтры и писать отклики, которые не пахнут AI-slop
Пошаговый пайплайн: извлечение фактов из вакансий, анализ резюме и генерация уникальных сопроводительных писем. Борьба с галлюцинациями и AI-slop.
GRPO и ревард-хакинг: как модель учится говорить красиво ничего не говоря
Практическое руководство по борьбе с reward hacking в GRPO: почему модели генерируют мусор и как это исправить. KL divergence, стабильные reward функции, паттер
Groq vs. Локальный GPU: как GPT-OSS-20B убивает RTX 4090 в токенах в секунду
Практический тест: Groq выдает 250+ токенов в секунду, RTX 4090 - 45. Когда облако быстрее локального железа и стоит ли покупать GPU?