Гайды по AI и нейросетям - AiManual
AiManual Logo Ai / Manual.
Документация

Учебные материалы

Manual #993 10 min

Слепой тест LLM для юристов: как мы устроили соревнование моделей и что из этого вышло

Практический гайд по проведению слепого теста LLM в юриспруденции. Методология, ошибки, результаты сравнения моделей и неочевидные выводы.

Открыть документ
Manual #992 8 min

Layer Pruning на практике: как удалить 7 слоёв из TinyLlama для ускорения на 30% с минимальной потерей качества

Практический гайд по layer pruning для TinyLlama: пошаговый эксперимент, метрики качества, код PyTorch и неожиданные выводы про переобучение LLM.

Открыть документ
Manual #991 6 min

Автоматический монтаж видео по промпту: как с помощью Dive и MCP вырезать все моменты с ключевым словом

Пошаговое руководство по автоматическому монтажу видео с помощью Dive и MCP клиентов. Вырезаем фрагменты по ключевым словам без ручной работы.

Открыть документ
Manual #988 8 min

Забейте на трансформеры: собираем экспериментальную LLM на RTX 3090

Практический гайд по сборке гибридной архитектуры LLM на RTX 3090 с Mamba-2, Titans neural memory и JEPA. Оптимизация под ограниченные ресурсы.

Открыть документ
Manual #982 9 min

5 методов вставки данных в PostgreSQL из Python: полное сравнение ORM, Core и psycopg3 + бенчмарки

Полное сравнение 5 методов вставки в PostgreSQL: от ORM до psycopg3. Реальные бенчмарки, когда использовать каждый подход и как избежать типичных ошибок.

Открыть документ
Manual #980 8 min

Забей на RNNoise: локальные нейросети для подавления шума, которые не тормозят

Обзор эффективных моделей для локального подавления шума в аудио. Практическое руководство по обучению и настройке. Сравнение производительности.

Открыть документ
Manual #979 8 min

Git-коммиты, которые пишет за тебя ИИ: как настроить локальную LLM для автодополнения и не сойти с ума

Полное руководство по настройке автодополнения Git-коммитов с локальной LLM. Инструмент gsh, работающие модели, промпты и подводные камни.

Открыть документ
Manual #978 8 min

KV-cache в долговременной памяти: почему всё ломается и как это починить

Разбираем проблему сохранения KV-cache при работе с долговременной памятью агентов. Практические решения, оптимизация памяти, ускорение инференса.

Открыть документ
Manual #977 7 min

Почему LLM не умеют планировать: разбор провала Chain-of-Thought и будущее World Models

Глубокий разбор архитектурных причин, почему LLM неспособны к планированию. Критика Chain-of-Thought и объяснение, как World Models изменят ИИ.

Открыть документ
Manual #974 7 min

RAG в 2024: как научить ИИ не врать, не болтать лишнего и выбирать между правдой и ложью

Обзор свежих работ по RAG: как системы борются с фейками, защищают приватность и разрешают конфликты источников. Анализ трендов от Senior DevOps.

Открыть документ
Manual #973 11 min

PaddleOCR в полностью офлайн-режиме: как отключить загрузку моделей и использовать локальные файлы

Пошаговое руководство по настройке PaddleOCR для работы без интернета. Учимся загружать модели локально, отключать автоматические загрузки и настраивать конфигу

Открыть документ
Manual #970 6 min

Как настроить локальную LLM для долгой памяти: практическое руководство по оптимизации контекста

Пошаговое руководство по настройке локальной LLM для работы с длинным контекстом. Оптимизация памяти, производительности и настройка Qwen 3 30B для долгих диало

Открыть документ