Инструменты для работы с AI - AiManual
AiManual Logo Ai / Manual.

Инструменты

Подборка AI-инструментов. Только то, что работает.

K

KoboldCpp 1.106: MCP серверы для локальных моделей — выкиньте Claude Desktop

Полное руководство по настройке MCP серверов в KoboldCpp 1.106. Замена Claude Desktop для работы с тул-коллами на локальных моделях.

Обзор
R

Recursive Data Cleaner: как автоматизировать очистку данных с помощью LLM и Python

Обзор Recursive Data Cleaner - Python-библиотеки для рекурсивной очистки JSONL и CSV с помощью LLM. Автоматическая генерация функций, сравнение с аналогами.

Обзор
O

Offloom: первый локальный AI-ассистент в Steam для не-технарей — обзор функций и системных требований

Первый локальный AI-ассистент в Steam для обычных пользователей. Генерация изображений, RAG-поиск по документам, приватность. Системные требования: 12/8 ГБ VRAM

Обзор
P

PyTorch 2.7.1 для старых GPU: как запустить современные модели на Kepler 2.0+

Инструкция по установке backport PyTorch 2.7.1 для старых GPU Kepler 2.0+. Запускайте современные модели на K40, GTX 780. CUDA 12.1, MKL, cuDNN.

Обзор
P

PersonaPlex от NVIDIA: как запустить локальную full-duplex модель для живого диалога

Обзор PersonaPlex от NVIDIA — 7B full-duplex модель для естественных диалогов без пауз. Установка, сравнение с Moshi, примеры использования.

Обзор
P

Personica AI: когда NPC в Unreal Engine начинают думать локально

Обзор Personica AI — плагина для интеграции локальных языковых моделей в Unreal Engine. Создавайте умных NPC без облачных API.

Обзор
P

Piemme: Ваши промпты теперь под контролем версий. Наконец-то.

Обзор Piemme — инструмента на Rust для версионирования, композиции и динамического выполнения промптов. Сравнение с аналогами и примеры использования.

Обзор
С

Спам-детектор, который не шпионит: как запустить и переучить 500-мегабайтную модель локально

Пошаговый гайд по запуску 500 МБ модели для фильтрации спама на своем сервере и ее дообучению под свои данные с помощью Artifex.

Обзор
v

vLLM-MLX: настройка нативного LLM-инференса на Apple Silicon с производительностью до 464 ток/с

Полный обзор vLLM-MLX: настройка локального LLM-сервера на Apple Silicon с OpenAI API. Сравнение производительности, установка, примеры использования.

Обзор
S

Speech-to-Speech конверсия голоса: лучшие open-source инструменты для анонимизации с сохранением интонации

RVC, So-VITS-SVC и другие open-source решения для speech-to-speech конверсии голоса. Сохраняйте интонацию, меняйте голос, работайте локально.

Обзор
G

GLM-Image: китайский монстр для текста в картинках, который игнорирует NVIDIA

Как GLM-Image с гибридной AR+Diffusion архитектурой работает на Huawei Ascend, обходит Stable Diffusion в CVTG-2K и доступен с MIT-лицензией.

Обзор
H

HexStrike + OpenCode: AI-агент для пентеста, который не просит перерыв на кофе

Пошаговая настройка AI-агента HexStrike с OpenCode в Kali Linux. Автоматизация сканирования, эксплуатации и анализа уязвимостей.

Обзор