Инструменты
Подборка AI-инструментов. Только то, что работает.
Yttri: когда твои заметки живут в твоём компьютере, а не в чужом облаке
Полный обзор Yttri — приватной AI-системы для управления знаниями. Установка, сравнение с Notion и Obsidian, работа с локальными LLM.
Vibe Coding без облаков: 7 инструментов для локальной разработки с AI на 2026 год
Сравнение 7+ инструментов для программирования с локальными AI-моделями. Возможности, настройка, рекомендации для разработчиков на 2026 год.
Лёгкие coding-агенты для локальных LLM: когда 4K контекста — это роскошь
Сравнение PocketCoder, TinyAgent и других инструментов для автономного программирования на локальных LLM с ограниченным контекстом. Практические примеры и реком
BitNet в браузере: разбор PoC на WebGPU и WGSL для запуска 1-битных моделей на iPad
Технический разбор PoC BitNet b1.58 на WebGPU и WGSL для запуска 1-битных LLM на iPad M4 в 2026 году. WGSL шейдеры, оптимизации, реальные тесты.
KaniTTS2: локальная TTS с качеством ElevenLabs и скоростью 0.2 RTF
Полный гайд по установке KaniTTS2, квантованию модели для 3GB VRAM и сравнению с ElevenLabs. Тесты скорости, качества и практическое применение.
Claude Code глючит кэш? Отключаем x-anthropic-billing-header и возвращаем скорость
Пошаговое решение проблемы полной переобработки промпта в Claude Code. Отключаем заголовок x-anthropic-billing-header через переменные окружения и settings.json
ARIA Protocol: запуск BitNet b1.58 на CPU через P2P-сеть — бенчмарки AMD vs Intel с AVX-512
Тестирование ARIA Protocol — P2P-сети для запуска 1-битных LLM на CPU. Сравнение производительности AMD Ryzen и Intel Xeon с AVX-512, энергопотребление, задержк
Браузер агента в Bedrock AgentCore: прокси, профили и расширения, которые наконец-то работают
Практическое руководство по настройке прокси, профилей и расширений для браузера агента в Amazon Bedrock AgentCore. Решаем проблемы сессий и аутентификации.
GLM-5-744B: первый локальный LLM, впечатливший опытного разработчика (тест на создание игры)
Личный тест GLM-5-744B на создание игры с vLLM и квантованием IQ2_M. Сравнение с Qwen-72B и GPT-OSS, оценка скорости и практические выводы для разработчиков.
LLaDA2.1: токен-эдит взрывает локальные LLM — 1500+ TPS на слабом железе
Как токен-эдит в LLaDA2.1 дает 1500+ TPS на локальных моделях. Технология параллельного декодирования против классического инференса.
MiniMax-M2.5 230B MoE в GGUF: как заставить гиганта работать на Mac M3 Max 128GB
Подробный гайд по запуску 230B MoE модели MiniMax-M2.5 в формате GGUF на Mac M3 Max 128GB. Квантизация Q3_K_L, оптимизация памяти, реальные тесты производительн
Как запустить GPT-OSS (20B) в браузере на WebGPU: туториал по Transformers.js и ONNX Runtime Web
Практический гайд по запуску 20-миллиардной модели GPT-OSS локально в браузере с WebGPU ускорением через Transformers.js и ONNX Runtime Web