Инструменты
Подборка AI-инструментов. Только то, что работает.
GLM-4.6v 108B в 4-битном квантовании IQuant: тест на реальном железе, скорость и качество генерации
Практический тест GLM-4.6v 108B модели в 4-битном IQuant квантовании на Threadripper 1920x и RTX 5060Ti. Скорость 4-11 токенов/сек, сравнение с Nous Hermes, реа
LFM2.5 1.2B Instruct: когда маленький размер - большое преимущество
Обзор и практическое тестирование LFM2.5 1.2B Instruct. Почему эта модель обходит конкурентов в задачах извлечения данных и агентских сценариях на слабом железе
MiniMax M2.1 для программирования: какой квант не сломает код?
Тестируем квантования MiniMax M2.1 для программирования. Сравниваем качество кода, скорость и совместимость с OpenCode, Claude proxy. Выбираем лучший квант.
Как дать AI 142 инструмента для управления ПК: установка и настройка rmcp-presence через Cargo
Пошаговая установка rmcp-presence — MCP сервера с 142 системными инструментами для управления ПК через Claude Code и другие AI. Настройка через cargo install.
Jamba2 3B: маленький монстр grounding и длинного контекста. Побил ли он всех?
Обзор Jamba2 3B (Jamba2 Mini). Тесты на FACTS, IFBench, производительность. Сравнение с другими 3B моделями. Кому подойдет для enterprise-приложений.
LLM-Shield: как защитить персональные данные при работе с нейросетями
Пошаговая настройка LLM-Shield для маскировки персональных данных и перенаправления запросов к локальным LLM. Установка через Docker, сравнение с аналогами.
Binary KV cache: как сохранить 67% VRAM и ускорить восстановление контекста в локальных LLM
Обзор Binary KV cache для локальных LLM: как инструмент экономит видеопамять и ускоряет восстановление сессий через бинарное сохранение контекста.
BuddAI: личный локальный AI-экзокортекс, который работает за тебя 24/7
Создайте цифрового двойника на BuddAI и Ollama. Локальный AI-экзокортекс автоматизирует 90% рутины без API и слежки. Инструкция и кейс.
Fracture: Защита от самоуверенных AI, которые ломают ваш код
Обзор Fracture — локального GUI-инструмента для безопасного патчинга кода AI-ассистентами с защитой от поломки проектов и автоматическим откатом изменений.
FIBO для AI-агентов: как подключить финансовую онтологию через MCP-сервер
Обзор MCP-сервера, подключающего стандарт FIBO к AI-агентам. Решает проблему согласованности ответов в финтехе. Установка, примеры, сравнение.
Speakr v0.8.0: автономная транскрипция с диарзацией для автоматизации без GPU
Настройте локальную транскрипцию с диарзацией через WhisperX, REST API и интеграцией с Ollama для полной автоматизации без GPU.
PlexMCP: универсальный шлюз для подключения локальных LLM к любым инструментам (MCP)
Обзор PlexMCP — универсального шлюза для подключения локальных LLM (ollama, llama.cpp) к любым MCP-серверам. Установка через Docker, сравнение с альтернативами.