Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #612 8 min

Paligemma2 молчит на локальной машине: почему модель видит объекты, но не показывает bounding boxes

Разбор ошибок при локальном запуске Paligemma2: пустые координаты, проблемы с библиотеками, рабочий скрипт для object detection на Python.

Открыть документ
Manual #610 10 min

Заурядный RAG уже не работает: собираем поисковик, который обновляется сам

Пошаговое руководство по созданию локального семантического поиска с автоматическим отслеживанием изменений файлов. Python, Qdrant, MCP сервер.

Открыть документ
Manual #609 7 min

Когда LLM врёт о документах: строим логический детектор вместо очередного промпта

Архитектура логического движка на Python для детектирования противоречий между документами. Системный промпт, таймстампы, Ollama, RAG. Убираем галлюцинации.

Открыть документ
Manual #607 10 min

Тихий монстр: собираем AI-станцию на RTX 5090 и Ryzen 9 7950X3D для локального инференса

Полный гайд по сборке тихой AI-рабочей станции на RTX 5090 и Ryzen 9 7950X3D: компоненты, настройка, ПО для локального инференса LLM. Практические советы от Sen

Открыть документ
Manual #606 9 min

AMD Strix Halo и агентные AI: как выжать 128GB оперативки до последнего токена

Полное руководство по настройке агентных AI-воркфлоу на AMD Ryzen Strix Halo с 128GB RAM: выбор моделей, квантование, оптимизация llama.cpp для максимальной ско

Открыть документ
Manual #605 9 min

Как mHC от DeepSeek ломает 10-летнюю догму residual connections: разбор прорывной архитектуры

Технический разбор mHC от DeepSeek - архитектуры, которая бросает вызов 10-летней догме residual connections через Double Stochastic матрицы и гипер-связи.

Открыть документ
Manual #602 9 min

Гайд: Как собрать бюджетный сервер для LLM на 96GB VRAM из китайских GPU (Шэньчжэнь)

Пошаговый гайд по сборке сервера для LLM на 96GB VRAM с китайскими модифицированными GPU RTX 3080 20GB. Спецификации, переговоры с поставщиками, настройка желез

Открыть документ
Manual #601 8 min

Офлайн-помощники на Gemma 3n: как победители Kaggle обошли облачные сервисы

Технический разбор проектов-победителей Kaggle Challenge: как разработчики используют Gemma 3n, MediaPipe и flutter_gemma для создания офлайн-ассистентов.

Открыть документ
Manual #600 7 min

Операционная как аэропорт: как AI-диспетчер Akara на тепловых датчиках экономит миллионы

Как стартап Akara использует тепловые датчики и AI для координации операционных залов. Экономия 2-4 часа в день на каждой OR. Ambient sensing в медицине.

Открыть документ
Manual #597 9 min

Литературные предпочтения под микроскопом ИИ: как превратить список книг в карту личности

Полное руководство по анализу книг с помощью ИИ: от сбора данных до семантического анализа и кластеризации. Готовые промпты и скрипты.

Открыть документ
Manual #596 7 min

LLM-лотерея: как не проиграть, выбирая языковую модель в 2025

Практический гайд по выбору языковой модели. Анализ Chatbot Arena, Open LLM Leaderboard, MMLU. Какие метрики врут, а какие показывают правду.

Открыть документ
Manual #595 8 min

Сравнение open-source моделей для TTS и клонирования голоса: лучшие варианты для создания аудиокниг

Практическое сравнение open-source моделей для синтеза речи и клонирования голоса. Как выбрать лучший вариант для создания аудиокниг, обход лицензионных огранич

Открыть документ