Учебные материалы
Полное руководство по запуску NSFW-сторителлинга на локальной LLM: от MythoMax до SillyTavern
Пошаговый гайд по запуску интерактивного NSFW-сторителлинга на локальной LLM. Установка MythoMax-l2-13b, SillyTavern, настройка KoboldCCP, оптимизация под AMD R
Как запустить Stable Diffusion и текстовые LLM на ноутбуке с 4 ГБ VRAM: полное руководство
Подробное руководство по запуску Stable Diffusion и текстовых LLM на ноутбуке с 4 ГБ видеопамяти. Оптимизация моделей, сравнение Ollama и LM Studio, работа с кв
Как запустить KimiLinear-48B с MLA KV Cache в llama.cpp: инструкция по сборке и экономия VRAM с 140GB до 15GB
Пошаговая инструкция по сборке llama.cpp с поддержкой MLA KV Cache для запуска KimiLinear-48B на домашнем железе. Экономия видеопамяти в 10 раз.
MiniStral vs Gemma vs Qwen: какая модель до 15B справится с агентами, математикой и Raycast?
Практическое сравнение MiniStral 3 14B, Gemma 3 12B и Qwen3-14B для агентных задач, математики и локального Raycast. Тесты, выбор, подводные камни.
Как создать качественный RAG: уроки из Kaggle-соревнования Data-Feeling-School-RAG-Challenge
Разбор реального Kaggle-соревнования по RAG: детерминированность ответов, косинусное сходство эмбеддингов, оценка качества и подводные камни.
Масштабирование LLM: как рассчитать инфраструктуру для 1000 одновременных запросов
Практическое руководство по масштабированию LLM-сервисов: от расчёта GPU и памяти до архитектуры для 1000 RPS. vLLM, TGI, Continuous Batching.
Заголовок не спасает: выбираем базовую модель для тонкой настройки в 2024
Полный гид по выбору базовой модели для тонкой настройки. Сравнение Qwen 3 base, DeepSeek-V3, Llama 3.1 base, разбор архитектур и практические советы по настрой
Как парсить PDF в JSON с помощью LLM: сравнение моделей для точного извлечения структурированных данных
Глубокое руководство по извлечению структурированных данных из PDF с помощью LLM. Сравнение локальных моделей и API, оптимизация промптов, настройка пайплайна о
Как создать сайт AI-новостей в стиле Рика и Морти: архитектура на Ollama, Nemotron-3-nano и Gemini
Пошаговое руководство по созданию сайта AI-новостей с безумным контентом в стиле Рика и Морти. Используем Ollama, Nemotron-3-nano, Gemini и Nano Banana для скра
PMR: Заставь ИИ думать вероятностями, а не гадать на кофейной гуще
Руководство по PMR — методологии принятия решений с LLM через сценарии, вероятности и управление неопределенностью. Для инженеров и менеджеров.
Системный аналитик + ИИ: какие задачи уже делегировать нейросетям, а что пока делать самому — гайд от практиков
Практический гайд по делегированию задач ИИ для системных аналитиков. Что можно отдать нейросетям сегодня, а что пока делать самому.
Vibe Coding для игр: как управлять контекстом и избежать краха проекта при разработке с ИИ
Практическое руководство по управлению контекстом LLM при разработке игр с ИИ. Как избежать деградации качества кода и сохранить архитектуру проекта.