Учебные материалы
Исправление бага с повторной обработкой промптов в Qwen 3.5 для llama.cpp: подробный гайд
Глубокий разбор и пошаговое исправление критического бага с повторной обработкой промптов в Qwen 3.5 при использовании llama.cpp. Узнай, как починить Jinja chat
Как настроить llama.cpp и Qwen 3.5 27B для рекордной TPS при классификации документов
Детальное руководство по настройке llama.cpp сервера и Qwen 3.5 27B модели для обработки более 2000 документов в секунду. Оптимизация батчинга, контекста 128k и
Практическое руководство: Как обучить Qwen 2B для реальной задачи, обогнав 35B модель за £1
Пошаговый гайд по дообучению Qwen 2B для очистки диктовки. Сбор данных через reverse proxy, completions-only training, оценка. Затраты менее £1.
Сравнение локальных моделей Qwen3.5 для генерации баг-репортов: тест на Swift с оценкой от Claude Sonnet
Практическое сравнение квантованных Qwen3.5 моделей для генерации баг-репортов в iOS разработке. Оценка качества через Claude Sonnet, настройка LM Studio.
Архитектура Vision-Language моделей: как дообучить текстовую LLM для работы с изображениями
Пошаговый разбор архитектуры Vision-Language моделей 2026 года. Узнайте, как добавить image backbone и adapter layer к текстовой LLM. Практическое руководство.
Claude Cowork + Chrome: 10 сценариев автоматизации браузера
Полное руководство по настройке связки Claude Cowork и Chrome для автоматизации рутины. Конкретные сценарии, шаги установки и ошибки, которых стоит избегать. Ак
AI PDLC: как изменится работа разработчика, когда ИИ берёт на себя 80% задач (кейсы Сбера и Яндекса)
Шкала зрелости AI-driven разработки. Как изменится работа программиста, когда ИИ возьмёт 80% задач. Реальные кейсы трансформации в Сбере, Яндексе и red_mad_robo
Гибридный поиск в Agentic RAG: когда векторы и ключевые слова перестают спорить
Пошаговое руководство по внедрению гибридного поиска в Agentic RAG-системы. Комбинируем семантический поиск и BM25 для точного извлечения контекста.
Выбор железа для 24/7 агентов: CUDA на 6x RTX 3080 vs энергоэффективные Strix Halo и GB10
Практический гайд по выбору железа для круглосуточных AI агентов. Сравнение производительности, энергопотребления и экосистем CUDA и ROCm на примере 6x RTX 3080
Сжимаем Llama 8B до 2.5 ГБ: Экстремальный гайд для Jetson Orin Nano
Практический гайд по запуску 8-миллиардной модели Llama на Jetson Orin Nano с всего 2.5 ГБ памяти. Квантование, оптимизация, ошибки и реальные показатели.
Тепловое троттлинг на MacBook M5 Max: сравнение 14” и 16” для непрерывного вывода 72B моделей
Реальные тесты теплового троттлинга на MacBook M5 Max 14” и 16” при непрерывном выводе Qwen 2.5 72B. Сравнение температуры, скорости генерации и практические ре
Архитектура AI-фабрики: как собрать команду из 9 агентов на open-source моделях с одной видеокартой — конфиги, модели, бенчмарки
Практический гайд: собираем команду из 9 AI-агентов на open-source моделях с одной RTX 4090. Конкретные модели для каждой роли, настройки VRAM, бенчмарки HumanE