Инструменты
Подборка AI-инструментов. Только то, что работает.
Как запустить LLM на портативной консоли: SpruceChat для Miyoo и Trimui
Пошаговая инструкция по установке SpruceChat и запуску локального ИИ на портативных консолях Miyoo A30 и Trimui Smart Pro в 2026 году.
Cohere Transcribe в браузере: Нужен ли вам 2B-монстр, если у вас есть WebGPU и смелость?
Обзор демо Cohere Transcribe, работающего локально в браузере через WebGPU. Сравнение с альтернативами, примеры использования и рекомендации.
Vera: локальный поиск кода для AI агентов — установка, настройка и сравнение с аналогами
Обзор Vera — инструмента для локального поиска кода на Rust. Сравнение с аналогами, установка, настройка и примеры использования для AI агентов.
Плагины OpenAI Codex 2026: От игрушки к серьезному оружию. Установка за 1 клик и интеграция с GitHub и Gmail
Новые плагины и MCP серверы для OpenAI Codex в 2026. Как установить и использовать для работы с GitHub и Gmail. Сравнение с Claude Code и другими альтернативами
LCME: память для LLM, которая работает быстрее, чем вы успеваете моргнуть
Обзор LCME - memory engine для локальных LLM с скоростью до 430x быстрее Mem0. Установка, сравнение с альтернативами, примеры использования.
Unsloth Studio Beta: инференс быстрее на 30%, тул-коллинг и бинарники llama.cpp из коробки
Обзор Unsloth Studio Beta: ускорение инференса LLM на 30%, тул-коллинг, предустановленные бинарники llama.cpp. Установка, сравнение, примеры использования. Акту
MinerU-Diffusion: как диффузионный OCR ускоряет парсинг PDF в 3 раза (код на GitHub, поддержка MLX)
Обзор MinerU-Diffusion на 27.03.2026: как диффузионный декодирование и поддержка MLX ускоряют OCR для парсинга PDF-файлов. Сравнение с Tesseract, EasyOCR, инстр
MemAware: почему память RAG-агентов проваливается на неявном контексте и как это тестировать
Открытый бенчмарк MemAware вскрывает главную слабость RAG-систем: неспособность работать с неявным контекстом. Примеры, сравнения и как тестировать свои агенты.
Как Veai 5.7 ускоряет разработку: работа с директориями и переключение моделей в IDE
Обзор плагина Veai 5.7. Как работа с контекстом папок и переключение между OpenAI, Anthropic и локальными LLM ускоряют код в IntelliJ IDEA.
Как заставить LLM играть в визуальные новеллы: патчинг Ren'Py, Ollama и автоматизация диалогов
Как интегрировать локальную LLM в игры Ren'Py для автоматизации диалогов. Подробный гайд по патчингу, настройке Ollama и созданию ИИ-агента для визуальных новел
Microsoft GraphRAG и Ollama: практическое руководство по построению графа знаний на локальной машине
Пошаговая сборка графа знаний с Microsoft GraphRAG и Ollama 0.6.0. Извлекаем сущности, визуализируем в Gephi, делаем запросы. Полный код и актуальные модели на
AdamBench: полный обзор бенчмарка для локальных LLM в агентском кодинге на RTX 5080
Полный обзор AdamBench — бенчмарка для оценки локальных LLM в агентском кодинге на RTX 5080. Сравнение моделей, метрики, примеры использования.