Учебные материалы
480 миллиардов против здравого смысла: какой open-source кодогенератор реально работает в 2026
Реальный тест больших open-source моделей для кодинга: Qwen Coder 480B, Kimi K2, GLM 4.7. Железо, качество кода, мусор в ответах — что выбрать?
Почему ИИ-ассистенты ломаются в бизнес-среде: анализ проблемы контекста и инженерные решения
Разбор реальных причин провала ИИ-ассистентов в бизнесе. Инженерные подходы: RAG для корпоративных данных, fine-tuning моделей, онтологии. Практические решения
Полный гайд по квантованию в vLLM: сравниваем AWQ, GPTQ, Marlin, GGUF и BitsandBytes на Qwen2.5-32B
Технический разбор пяти методов 4-битного квантования в vLLM: производительность, качество и практический выбор для Qwen2.5-32B.
RTX 5090 под прессом: как разогнать новую сборку до предела на LoRA и ComfyUI
Пошаговый гайд по нагрузочному тестированию новой сборки с RTX 5090 и 128 ГБ RAM. Проверяем пределы системы на реальных задачах: обучение LoRA и сложные workflo
От теории к практике: пошаговый план для AI-инженера после книги Чипа Хуена
Конкретный пошаговый план от теории к практике: проекты на LangGraph и CrewAI, оценка RAG пайплайнов, создание портфолио и поиск работы в AI Engineering.
Ollama vs llama.cpp: как заставить работать несовместимые видеокарты вместе (3060 и P102-100)
Пошаговое руководство по настройке llama.cpp и Ollama для работы с разными видеокартами. Оптимизация VRAM, команды tensor-split, сравнение производительности.
Скупой платит дважды: почему PCIe 5.0 для MoE-инференса — это ловушка, а не панацея
Собираем сервер для Mixtral, DeepSeek MoE на RTX 5090. Сравнение PCIe 4.0 и 5.0, DDR4/DDR5 для vLLM. Экономия $5K с потерей всего 35% в prefill.
GLM-4.7 на четырех RTX 3090: выжимаем последние токены с ik_llama.cpp
Подробный разбор настройки GLM-4.7 на 4x RTX 3090 для максимальной производительности. Таблицы бенчмарков, конфигурации Docker и ошибки.
Aventura: Когда SillyTavern слишком глуп, а OpenRouter слишком дорог
Полное руководство по установке Aventura — приватного фронтенда для ролевых игр и творческого письма с локальными моделями, долгосрочной памятью и анти-слоп сис
Критическая дыра в llama.cpp: как проверить версию и не стать жертвой RCE-атаки
Подробный гайд по критической уязвимости в llama.cpp (CVE в разработке). Как проверить свою версию, понять механизм атаки через n_discard и защититься от удалён
Как Llama 3.1 предсказывает суицидальные мысли лучше психологов: разбираем исследование с 75% точностью
Глубокий разбор исследования, где perplexity от Llama 3.1 предсказывает суицидальный риск с 75% точностью. Код, пайплайн, ошибки и почему это работает.
Когда Sonnet 3.7 умирает: что писать на Mac M2 Ultra с 192GB памяти
GLM 4.7, 4.5 Air, Intellect 3 — тестируем локальные модели для творчества на Mac. Сравнение качества, скорости, потребления памяти.