Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #3082 10 min

Фронтенд без фронтендера: как я собрал Vue/TypeScript проект за неделю с AI-ассистентом

Практическое руководство по сборке фронтенда на Vue/TypeScript без фронтендера с помощью AI-ассистента. Дизайн-система, генерация интерфейса, ревью кода.

Открыть документ
Manual #3081 8 min

Docker + JupyterLab для живых семинаров по ML: как заставить студентов писать код, а не смотреть

Пошаговый гайд по созданию локальной образовательной среды для ML семинаров с Docker и JupyterLab. Установка, конфигурация, расширения и лучшие практики для вов

Открыть документ
Manual #3080 10 min

AI-агент за копейки: как Jetson Orin Nano Super жрёт 15 ватт вместо 800

Пошаговая сборка AI-агента на Jetson Orin Nano Super с энергопотреблением 15Вт. Настройка OpenClaw, аппаратный шлюз, экономия 80% на электричестве.

Открыть документ
Manual #3079 9 min

Квантование LLM: как сжать модель в 4 раза без потери качества (и когда это невозможно)

Исчерпывающее руководство по квантованию LLM: от основ до продвинутых техник. GGUF, INT4, Q4_K_M, FP16 - разбираем все форматы, сравниваем качество и скорость,

Открыть документ
Manual #3074 7 min

Тот самый баг в гибридном поиске, который все игнорируют: как Log-Odds Conjunction убивает ваши RAG-системы

Глубокий разбор фундаментальной ошибки гибридного поиска в RAG. Практическое исправление Conjunction Shrinkage через Bayesian BM25 с логарифмическими шансами.

Открыть документ
Manual #3072 9 min

Как настроить LoRA для Qwen3-VL 2B: оптимальные параметры для слабого GPU

Пошаговый гайд по настройке LoRA для Qwen3-VL 2B на GPU с 8-12 ГБ VRAM. Оптимальные параметры, команды, ошибки и экономия памяти.

Открыть документ
Manual #3071 8 min

Unsloth + Q4 квантование: как заставить 30B модель работать на 8 ГБ VRAM с оффлоадингом в RAM

Пошаговая инструкция по тонкой настройке больших языковых моделей с Unsloth, Q4 квантованием и оффлоадингом в RAM. Работаем с 30B моделями на 8 ГБ VRAM.

Открыть документ
Manual #3070 8 min

Почему LLM ломают JSON-парсеры: бенчмарк 672 вызовов и как это исправить

Реальный тест 8 моделей на 672 вызовах показал: 67% ответов ломают JSON-парсеры. Сравнение GPT-4o, Claude 3.7 Sonnet, Mistral Large 2, Llama 3.3 и других. Практ

Открыть документ
Manual #3068 8 min

Локальные LLM в работе: реальные кейсы, которые меняют всё

Лучшие практики применения локальных LLM от разработчиков: кодинг, анализ данных, автоматизация. Полный гайд с примерами для Ollama, LM Studio.

Открыть документ
Manual #3067 6 min

Q4_K_M квантование: золотая середина или компромисс без выбора?

Полный разбор Q4_K_M квантования: что это такое, как влияет на качество ответов AI-моделей, сравнение с Q8_0 и Q2_K, практические рекомендации по выбору формата

Открыть документ
Manual #3065 10 min

Две карты, одна скорость: почему ваша LLM на двух GPU работает как на одной и как это исправить

Разбираем проблему неравномерной загрузки GPU в LM Studio и vLLM. Пошаговый гайд по диагностике, настройке tensor parallelism и оптимизации скорости генерации t

Открыть документ
Manual #3053 9 min

Totogi BSS Magic: как мы заменили 20 инженеров мультиагентным фреймворком на Amazon Bedrock

Реальный кейс Totogi: как автоматизировать обработку change request в телекоме с помощью мультиагентного фреймворка на Amazon Bedrock. Архитектура, онтологии, п

Открыть документ