Инструменты
Подборка AI-инструментов. Только то, что работает.
Natural Language Autoencoders от Anthropic: как разобрать нейросеть на кирпичики и запустить это дома через UI на llama.cpp
Обзор инструмента для интерпретации нейросетей с помощью Natural Language Autoencoders от Anthropic. Запускаем локально на llama.cpp с сервером и красивым UI.
DeerFlow 2.0: развертывание super-agent harness через Docker и сравнение с Claude Code и OpenHands
Разбираем архитектуру DeerFlow 2.0 от ByteDance, развертывание через Docker, сравнение с Claude Code и OpenHands. Кому подойдет этот инструмент для мультиагентн
SenseNova-U1-A3B-MoT: 1B параметров, которые работают как 7B. Китайцы снова всех переиграли?
Разбираем новую архитектуру MoT от SenseTime: как 1B активных параметров обходят Mistral Small 4 и Qwen. Тесты, инференс, локальный запуск на GPU 8GB.
TextGen: свежая кровь на рынке локальных LLM — почему этот клиент может подвинуть LM Studio
Обзор TextGen — нового нативного десктопного клиента для запуска LLM локально. Сравнение с LM Studio, возможности, кому подойдёт. Полностью локально, без аккаун
Как почистить Claude Code от мусора: cc-janitor — инструмент для управления сессиями, памятью и хуками
cc-janitor — TUI/CLI инструмент для очистки сессий, управления memory-файлами и отката Auto Dream в Claude Code. Установка, примеры, сравнение.
Derpy Turtle: бесплатный GUI для тренировки голосов Kokoro с RVC — наконец-то без танцев с бубном
Обзор бесплатного инструмента с открытым кодом для тренировки голосовых моделей на базе Kokoro TTS и RVC. Как работает, сравнение с альтернативами, примеры испо
Needle: как 26 миллионов параметров заменяют гигантов при вызове функций
Модель Needle с 26M параметров, дистиллированная из Gemini, выполняет tool calling со скоростью 6000 tok/s prefill – идеально для мобильных AI-агентов. Сравнени
Локальный AI-кодинг на одной видеокарте: настройка автокомплита и агентного режима с Qwen моделями
Настройка Qwen2.5-Coder-7B и Qwen3.6-35B-A3B на одной видеокарте для автокомплита и агентного программирования без облачных API. Примеры, квантования, конфигура
GGUF на стероидах: почему MagicQuant v2.0 сделает ваши модели умнее, не раздувая битность
Обзор MagicQuant v2.0 — инструмента для создания гибридных GGUF квантований с динамическими конфигурациями. Сравнение с Unsloth, примеры, бенчмарки, кому подойд
Новый инструмент llama-eval в llama.cpp: что это и как использовать
Новый встроенный инструмент для оценки моделей в llama.cpp от ggerganov. Запускайте MMLU, HellaSwag и другие тесты локально. Инструкция и сравнение с альтернати
llama.cpp server: долгожданное исправление краша mmproj + MTP (speculative decoding)
Узнайте, как в llama.cpp server наконец починили краш при использовании mmproj с многотокенной спекуляцией. Практические советы и прогнозы.
Запуск модели с 500k контекстом на 48GB VRAM: Nemotron-3-Super 64B-A12B и скорость 21 tok/s
Обзор модели Nemotron-3-Super 64B-A12B: 500k токенов контекста на 48GB VRAM, 21 токен/с. MoE, GGUF квантование, агентное кодирование. Сравнение с альтернативами