Инструменты для работы с AI - AiManual
AiManual Logo Ai / Manual.

Инструменты

Подборка AI-инструментов. Только то, что работает.

C

Chief CLI: как автоматизировать кодирование с Claude и git worktrees по методу Ralph Wiggum

Автоматизируйте программирование с Claude Code через git worktrees. Структурированный подход к верификации кода и планированию задач.

Обзор
B

Bare-metal инференс Llama 2 на C++20: когда память становится стеной

Разбираем inference engine без зависимостей, написанный на C++20. Анализ кода, оптимизация памяти и борьба с Memory Wall на ARM-архитектуре.

Обзор
n

nanoRLHF: Когда образовательный проект бьет по зубам промышленные фреймворки

Разбираем nanoRLHF — минималистичную реализацию RLHF с Flash Attention и Triton. Образовательный проект, который обучил Qwen3 и показал, как работают большие фр

Обзор
S

SimpleLLM vs vLLM: когда скорость важнее латентности

Сравнение SimpleLLM и vLLM, тесты на GPU, как запустить минимальный движок для GPT-OSS-120B с максимальной пропускной способностью.

Обзор
G

GLM-4.6v 108B в 4-битном квантовании IQuant: тест на реальном железе, скорость и качество генерации

Практический тест GLM-4.6v 108B модели в 4-битном IQuant квантовании на Threadripper 1920x и RTX 5060Ti. Скорость 4-11 токенов/сек, сравнение с Nous Hermes, реа

Обзор
L

LFM2.5 1.2B Instruct: когда маленький размер - большое преимущество

Обзор и практическое тестирование LFM2.5 1.2B Instruct. Почему эта модель обходит конкурентов в задачах извлечения данных и агентских сценариях на слабом железе

Обзор
M

MiniMax M2.1 для программирования: какой квант не сломает код?

Тестируем квантования MiniMax M2.1 для программирования. Сравниваем качество кода, скорость и совместимость с OpenCode, Claude proxy. Выбираем лучший квант.

Обзор
К

Как дать AI 142 инструмента для управления ПК: установка и настройка rmcp-presence через Cargo

Пошаговая установка rmcp-presence — MCP сервера с 142 системными инструментами для управления ПК через Claude Code и другие AI. Настройка через cargo install.

Обзор
J

Jamba2 3B: маленький монстр grounding и длинного контекста. Побил ли он всех?

Обзор Jamba2 3B (Jamba2 Mini). Тесты на FACTS, IFBench, производительность. Сравнение с другими 3B моделями. Кому подойдет для enterprise-приложений.

Обзор
L

LLM-Shield: как защитить персональные данные при работе с нейросетями

Пошаговая настройка LLM-Shield для маскировки персональных данных и перенаправления запросов к локальным LLM. Установка через Docker, сравнение с аналогами.

Обзор
B

Binary KV cache: как сохранить 67% VRAM и ускорить восстановление контекста в локальных LLM

Обзор Binary KV cache для локальных LLM: как инструмент экономит видеопамять и ускоряет восстановление сессий через бинарное сохранение контекста.

Обзор
B

BuddAI: личный локальный AI-экзокортекс, который работает за тебя 24/7

Создайте цифрового двойника на BuddAI и Ollama. Локальный AI-экзокортекс автоматизирует 90% рутины без API и слежки. Инструкция и кейс.

Обзор