Учебные материалы
ИИ против рутины: автоматизируем Power BI от DAX до схемы данных
Практическое руководство по использованию ИИ для автоматизации DAX, создания SQL-запросов и экспорта схем Power BI. Примеры кода на Python и .NET.
Tesla P40 для MoE-оффлоудинга: как заставить 8-летнюю карту работать лучше современных
Практический гайд по использованию дешёвых Tesla P40 для оффлоудинга экспертов в MoE-моделях. Оптимизация стоимости, настройка, сравнение с RTX 4090 и GTX 1070.
Когда твой AI-агент тупит и молчит: полный гайд по observability для Cursor и Claude Code
Пошаговое руководство по настройке хуков и трассировки AI-агентов в Cursor и Claude Code. Hooks.json, жизненный цикл агента, отладка промптов.
Построение AI-монстра: локальный ассистент со всем функционалом в одной коробке
Подробный разбор архитектуры полностью локального AI-ассистента со всеми функциями. STT, TTS, RAG, управление умным домом, генерация изображений и мониторинг си
Общий сервер ComfyUI для команды: от ThreadRipper до PSU 2500W
Полный гайд по сборке и настройке общего сервера ComfyUI для команды. ThreadRipper PRO, RTX Pro 6000, управление портами, PSU 2500W и безопасность.
Anthropic Cowork: как заставить Claude работать с вашими файлами на Mac без единого скрипта
Полный гайд по настройке Anthropic Cowork для автоматической обработки документов, организации файлов и создания отчётов на Mac без программирования.
Расчёт стоимости self-hosted Gemma 3 4B для 300 пользователей: от железа до счёта
Подробный гайд по оценке стоимости и инфраструктуры для self-hosted развёртывания Gemma 3 4B на 300 конкурентных пользователей. TGI, квантование, выбор железа.
Оптимизация оперативной памяти для локальных LLM: скорость против объема на примере Qwen2.5-32B и DeepSeek
Практическое руководство по выбору конфигурации оперативной памяти для запуска локальных LLM 32B параметров. Сравнение скорости и объема на примере Qwen2.5-32B
Выбор локальной LLM как код-тьютора: модели, требования к RAM/VRAM и борьба с галлюцинациями
Сравниваем DeepSeek-Coder, Codestral и Llama Code как локальных код-тьюторов. Подбираем модель под 24 GB RAM и 16 GB VRAM, разбираемся с контекстом 20k и миними
Как собрать систему транскрибации совещаний на Whisper и Pyannote с Tesla V100: от покупки карты до развёртывания
Пошаговый гайд по сборке системы транскрибации совещаний на Whisper и Pyannote с Tesla V100 из AliExpress. От покупки карты до развёртывания.
Разреженные автоэнкодеры (SAE): как заглянуть в «чёрный ящик» LLM и управлять поведением модели
Практический гайд по разреженным автоэнкодерам (SAE) для интерпретации чёрного ящика LLM и управления поведением моделей. Примеры с Claude 3 Sonnet.
Как выбрать агентство для тонкой настройки LLM: гайд по критериям и подводным камням на примере кейса поддержки
Практический гайд по выбору подрядчика для тонкой настройки LLM на примере кейса поддержки. Критерии оценки, подготовка датасета, деплой модели и частые ошибки.