Учебные материалы
Фронтенд без фронтендера: как я собрал Vue/TypeScript проект за неделю с AI-ассистентом
Практическое руководство по сборке фронтенда на Vue/TypeScript без фронтендера с помощью AI-ассистента. Дизайн-система, генерация интерфейса, ревью кода.
Docker + JupyterLab для живых семинаров по ML: как заставить студентов писать код, а не смотреть
Пошаговый гайд по созданию локальной образовательной среды для ML семинаров с Docker и JupyterLab. Установка, конфигурация, расширения и лучшие практики для вов
AI-агент за копейки: как Jetson Orin Nano Super жрёт 15 ватт вместо 800
Пошаговая сборка AI-агента на Jetson Orin Nano Super с энергопотреблением 15Вт. Настройка OpenClaw, аппаратный шлюз, экономия 80% на электричестве.
Квантование LLM: как сжать модель в 4 раза без потери качества (и когда это невозможно)
Исчерпывающее руководство по квантованию LLM: от основ до продвинутых техник. GGUF, INT4, Q4_K_M, FP16 - разбираем все форматы, сравниваем качество и скорость,
Тот самый баг в гибридном поиске, который все игнорируют: как Log-Odds Conjunction убивает ваши RAG-системы
Глубокий разбор фундаментальной ошибки гибридного поиска в RAG. Практическое исправление Conjunction Shrinkage через Bayesian BM25 с логарифмическими шансами.
Как настроить LoRA для Qwen3-VL 2B: оптимальные параметры для слабого GPU
Пошаговый гайд по настройке LoRA для Qwen3-VL 2B на GPU с 8-12 ГБ VRAM. Оптимальные параметры, команды, ошибки и экономия памяти.
Unsloth + Q4 квантование: как заставить 30B модель работать на 8 ГБ VRAM с оффлоадингом в RAM
Пошаговая инструкция по тонкой настройке больших языковых моделей с Unsloth, Q4 квантованием и оффлоадингом в RAM. Работаем с 30B моделями на 8 ГБ VRAM.
Почему LLM ломают JSON-парсеры: бенчмарк 672 вызовов и как это исправить
Реальный тест 8 моделей на 672 вызовах показал: 67% ответов ломают JSON-парсеры. Сравнение GPT-4o, Claude 3.7 Sonnet, Mistral Large 2, Llama 3.3 и других. Практ
Локальные LLM в работе: реальные кейсы, которые меняют всё
Лучшие практики применения локальных LLM от разработчиков: кодинг, анализ данных, автоматизация. Полный гайд с примерами для Ollama, LM Studio.
Q4_K_M квантование: золотая середина или компромисс без выбора?
Полный разбор Q4_K_M квантования: что это такое, как влияет на качество ответов AI-моделей, сравнение с Q8_0 и Q2_K, практические рекомендации по выбору формата
Две карты, одна скорость: почему ваша LLM на двух GPU работает как на одной и как это исправить
Разбираем проблему неравномерной загрузки GPU в LM Studio и vLLM. Пошаговый гайд по диагностике, настройке tensor parallelism и оптимизации скорости генерации t
Totogi BSS Magic: как мы заменили 20 инженеров мультиагентным фреймворком на Amazon Bedrock
Реальный кейс Totogi: как автоматизировать обработку change request в телекоме с помощью мультиагентного фреймворка на Amazon Bedrock. Архитектура, онтологии, п