Инструменты для работы с AI - AiManual
AiManual Logo Ai / Manual.

Инструменты

Подборка AI-инструментов. Только то, что работает.

C

CodeGraphContext: когда файловый поиск бессилен против 14 языков кода

Полный обзор CodeGraphContext — MCP сервера, который строит символьный граф кода на 14 языках, режет токены в 120 раз и заставляет AI понимать архитектуру.

Обзор
C

Cicikuş v2-3B: тестируем легкую модель с Behavioral Consciousness Engine

Тест модели Cicikuş v2-3B на базе Llama 3.2 3B. Behavioral Consciousness Engine, Secret Chain-of-Thought, 4.5 GB VRAM. Сравнение с Gemma 3 4B и MiniCPM-o-4.5.

Обзор
P

Penguin-VL от Tencent: архитектура, производительность и запуск локальной VLM 8B/2B

Архитектура Penguin-VL с LLM-based vision encoder, 2D-RoPE и TRA-компрессией. Сравнение производительности, запуск моделей 8B/2B локально.

Обзор
B

Bird's Nest: open-source менеджер для нетрансформерных моделей с памятью, которая не сбрасывается

Обзор open-source менеджера Bird's Nest для запуска RWKV-7, Mamba и xLSTM моделей с памятью O(1). Сравнение с Ollama, возможности, примеры и кому подойдет в 202

Обзор
G

Graph-Oriented Generation (GOG): как заставить маленькую Qwen 0.8B анализировать целый репозиторий через AST-графы (сокращение токенов на 89%)

Обзор Graph-Oriented Generation (GOG) — фреймворка, который через AST-графы позволяет крошечным LLM, таким как Qwen 0.8B, анализировать целые репозитории, сокра

Обзор
К

Как убрать политику приватности в AI-приложении: переход на локальные LLM с llama.cpp и RunAnywhere SDK

Переход на локальные LLM с llama.cpp и RunAnywhere SDK избавляет от политики приватности, снижает затраты и повышает доверие. Практическое руководство.

Обзор
l

llama-swap: Легковесный убийца Ollama для тех, кто меняет модели как перчатки

Обзор llama-swap — инструмента для одновременного запуска множества LLM моделей с минимальным потреблением памяти. Сравнение с Ollama и LM Studio, примеры настр

Обзор
K

Kimi Linear в llama.cpp: как одна строка кода увеличит контекст на 30% и ускорит промпты

Разбираем pull request 19827 для llama.cpp: как Kimi Linear увеличивает длину контекста на 30% и ускоряет обработку промптов. Практическое руководство на март 2

Обзор
M

MagpieBOM: Локальный ИИ, который видит ваши электронные компоненты насквозь

MagpieBOM использует Qwen3.5 vision и llama.cpp для локального поиска и проверки электронных компонентов. Открытый код, работает без интернета.

Обзор
O

Olmo-Hybrid-7B: как гибридная RNN модель удваивает эффективность данных

Обзор Olmo-Hybrid-7B от AllenAI. Как гибридная архитектура с RNN удваивает эффективность данных и работает с длинным контекстом. Сравнение, примеры, рекомендаци

Обзор
S

Skaro: ваш личный AI-дирижёр, который превращает описания в код (и не забывает, что делал вчера)

Практический гайд по Skaro — AI-оркестратору, который сам пишет код по спецификациям. Установка, настройка ролей GPT-4.5 и Claude 3.7, решение проблемы потери к

Обзор
M

Modular Diffusers: как сборка из блоков наконец-то убила ComfyUI

Новый фреймворк от Hugging Face для сборки диффузионных пайплайнов из блоков. Работа с FLUX.2 Klein 4B и Mellon. Сравнение с ComfyUI и Automatic1111.

Обзор