Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #875 8 min

Игра, которая видит мир: как мы засунули Qwen3-VL в мобилку и создали Lenswalker

Подробный кейс Lenswalker: стек Ollama, FastAPI, RTX 4090. Практика автономных AI-игр с локальным анализом фотографий.

Открыть документ
Manual #874 8 min

Как ускорить обучение моделей в 2 раза: полный гайд по streaming datasets от Hugging Face

Практическое руководство по использованию streaming=True в Hugging Face Datasets для работы с терабайтными датасетами без OOM ошибок и ускорения обучения.

Открыть документ
Manual #870 8 min

Как ускорить тонкую настройку LLM в 20 раз с RapidFire AI и TRL: практическое руководство

Практическое руководство по ускорению тонкой настройки LLM в 20 раз с RapidFire AI и TRL. Конфигурации RFSFTConfig, RFDPOConfig, адаптивное планирование экспери

Открыть документ
Manual #868 6 min

Qwen3-30B квантованный против Qwen3-14B и Gemma-12B: что реально работает на 12 ГБ VRAM

Практический тест: какая модель даст 20+ токенов/сек на RTX 3080 Ti с 12 ГБ VRAM. Квантование, активированные параметры, реальная производительность.

Открыть документ
Manual #865 7 min

Полное руководство по выбору и использованию open-source OCR моделей в 2024: от Chandra до OlmOCR-2

Экспертный гайд по современным open-source OCR и Vision Language Models. Сравнение Chandra, OlmOCR-2, Mistral OCR 3. Как выбрать модель, когда fine-tune, практи

Открыть документ
Manual #864 7 min

Как 100 беспилотников на RL разгрузили пробки: кейс масштабного развертывания reinforcement learning

Практический кейс: 100 беспилотников на reinforcement learning уменьшили пробки на 37%. От симуляции к реальному миру - полный план развертывания.

Открыть документ
Manual #863 7 min

PyTorch в Core ML за 30 минут: запускаем SOTA OCR на Neural Engine без облаков

Пошаговый гайд по конвертации PyTorch моделей в Core ML для запуска SOTA OCR на Neural Engine Apple. Энергоэффективность, скорость, локальное выполнение.

Открыть документ
Manual #862 10 min

Токенизаторы в Transformers v5: ломаем чёрный ящик и собираем свой

Полное руководство по архитектуре токенизаторов в Transformers v5. Учимся разделять backend и словарь, обучаем свои токенизаторы для специфичных задач.

Открыть документ
Manual #861 7 min

Мультимодальный RAG с Llama Nemotron: как искать в документах с картинками, таблицами и схемами

Пошаговый гайд по настройке мультимодального RAG с Llama Nemotron для поиска в визуальных документах. Архитектура, эмбеддинги, векторные базы и практические при

Открыть документ
Manual #858 7 min

llama.cpp vs Ollama: почему одна модель генерирует код в 1.7 раза медленнее

Детальный разбор причин 70% разницы в скорости генерации кода на Qwen-3 Coder 32B между llama.cpp и Ollama. CUDA ядра, оптимизации, практические настройки.

Открыть документ
Manual #857 9 min

Claude 3 как автономный тренер моделей: загрузка данных, запуск GPU и залив на Hugging Face без вашего участия

Как настроить Claude 3 для полного цикла обучения LLM: выбор железа, подготовка данных, запуск обучения на облачных GPU и публикация на Hugging Face Hub.

Открыть документ
Manual #855 9 min

Ускорение Qwen3-8B агента в 1.4 раза на Intel Core Ultra: спекулятивное декодирование и прунинг draft-модели

Практическое руководство по ускорению Qwen3-8B агента в 1.4 раза на Intel Core Ultra через спекулятивное декодирование и прунинг draft-модели с OpenVINO GenAI

Открыть документ