Инструменты для работы с AI - AiManual
AiManual Logo Ai / Manual.

Инструменты

Подборка AI-инструментов. Только то, что работает.

А

Альтернатива трансформерам в CV: как TAPe-архитектура делает сегментацию и детекцию дешевле и без огромных моделей

Обзор TAPe-архитектуры для компьютерного зрения. Как активное восприятие делает сегментацию и детекцию объектов дешевле без огромных трансформерных моделей. Акт

Обзор
Н

Нейро-символический детектор дрейфа FIDI Z-Score: мониторинг ML-моделей мошенничества без labeled данных

Обзор нейро-символического детектора FIDI Z-Score для мониторинга ML-моделей мошенничества без labeled данных. Сравнение с RWSS, примеры использования и внедрен

Обзор
О

Обзор Attie от Bluesky: как создать свою ленту с помощью ИИ и протокола AT

Разбираем Attie — новый инструмент от Bluesky для создания умных лент с помощью Claude и протокола AT. Как работает, кому подойдет и чем лучше аналогов.

Обзор
К

Как объединить 31 бесплатную модель NVIDIA NIM в один прокси с авто-маршрутизацией и обходом лимитов

Готовое решение для объединения 31 бесплатной модели NVIDIA NIM в один прокси с автоматическим роутингом, failover и обходом лимитов запросов. Установка и конфи

Обзор
T

Turboquant на Apple M5 Max: когда скорость prefill убивает всю магию

Разбор новой техники квантования Turboquant на Mac M5 Max. Экспоненциальный рост времени prefill, сравнение с MLX и GGUF, и кому это все нужно в 2026 году.

Обзор
L

Llama.cpp с TurboQuant, H2O и StreamingLLM: полное руководство по настройке для контекста 256k+

Пошаговый гайд по интеграции TurboQuant, Heavy-Hitter Oracle и StreamingLLM в llama.cpp для работы с контекстом 256k+ на ограниченном VRAM.

Обзор
F

Flash Attention для старых AMD MI50 (gfx906): как обойти ограничения и запустить генерацию видео без OOM

Полное руководство по запуску генерации видео на AMD MI50 (gfx906) с обходом ограничений памяти. Memory-efficient attention, SDPA PyTorch и оптимизации под ROCm

Обзор
T

TypeWhisper 1.0: Когда приватная диктовка обрела модульность

Полный обзор TypeWhisper 1.0: модульное приложение для диктовки с поддержкой WhisperKit, Parakeet, Qwen3 и LLM-постобработкой. Работает локально на macOS.

Обзор
C

Chatterbox Turbo на VLLM: как добиться 37.6x ускорения генерации речи на RTX 4090

Портирование TTS-модели Chatterbox Turbo на vLLM дает ускорение в 37.6 раз на RTX 4090. Бенчмарки, настройка и примеры для реального синтеза речи.

Обзор
M

MCP memory server на Rust: когда граф знаний встречает нейроны в хранилище

Гибридный поиск на Rust, граф знаний и нейропластичность памяти для AI агентов. Сравнение с Python, тесты производительности и примеры использования.

Обзор
M

MuninnDB: как настроить Dream Engine для консолидации памяти LLM с изоляцией данных Ollama

Полное руководство по настройке MuninnDB Dream Engine для консолидации памяти LLM с изоляцией данных через Ollama vault. Актуально на 2026 год.

Обзор
T

TideSurf: как сжать DOM в 30 раз для веб-агентов и ускорить TTFT в 12 раз на Qwen 3.5 9B (туториал по npm-пакету)

TideSurf сокращает токены DOM на 30x и ускоряет время до первого токена в 12 раз для веб-агентов на Qwen 3.5 9B. Гайд по установке и использованию npm @tidesurf

Обзор