Инструменты
Подборка AI-инструментов. Только то, что работает.
Loot-JSON: когда маленькие LLM ломают JSON, а вы спасаете данные
TS-библиотека для очистки и исправления некорректного JSON от маленьких LLM-моделей. Установка, примеры, сравнение с аналогами.
MichiAI: как 530M параметров и Rectified Flow выжимают 75 мс из full-duplex речи на одной 4090
Технический разбор архитектуры MichiAI - речевой LLM на 530M параметров с Rectified Flow Matching и задержкой 75 мс для full-duplex диалога.
ACE-Step 1.5: 2 секунды на генерацию песни и полная свобода от облаков
Полный обзор ACE-Step 1.5 — локальной модели генерации музыки, которая создает треки за 2 секунды на A100 с MIT лицензией. Сравнение с Suno, технические детали.
Pocket TTS на Android: готовый APK, OBB и почему Mimi decoder тормозит на Helio G99
Готовый APK с Pocket TTS для Android, оптимизация под Snapdragon и Helio, сравнение производительности, решение проблем с Mimi decoder. Локальный TTS без интерн
Amazon SageMaker Data Agent: автономный аналитик, который сам пишет SQL за врачей
Как автономный AI-агент от Amazon ускоряет исследования в медицине. Генерация SQL кода, когортный анализ и работа с реальными данными.
Qwen3-Coder-Next: китайский ответ на CodeLlama, который умеет думать как программист
Тестируем Qwen3-Coder-Next на реальных задачах, сравниваем с CodeLlama и DeepSeek-Coder. Кому подойдет новая модель для программирования.
Mistral-Helcyon-Mercury-12b: локальная модель с тоном GPT-4o — тест и настройка
Тест Mistral-Helcyon-Mercury-12b - локальной модели с тоном GPT-4o. Сравнение, настройка GGUF, инференс на RTX 3060 12GB. Альтернатива Mistral и Qwen2.5.
Tanaos Sentiment Analysis: крошечная модель, которая понимает иронию лучше маркетологов
Обзор Tanaos Sentiment Analysis — 500Мб модели для анализа тональности текста. Сравнение с аналогами, примеры работы через API, инструкция по локальному запуску
EdgeGate: когда CI-тестирование мобильного AI перестает быть кошмаром
Обзор EdgeGate — инструмента для CI-тестирования on-device AI на реальном железе. Как он решает проблемы p95/p99 latency, троттлинга и энергопотребления на Snap
Gonka: как децентрализованная сеть снижает стоимость LLM-инференса в 10 раз
Обзор Gonka — децентрализованной сети для запуска LLM с Transformer Proof-of-Work. Сравнение с OpenAI, снижение затрат на 90%, инвестиции Bitfury.
MRS-Core: минимальный слой логики для локальных ИИ-агентов
Обзор MRS-Core — минимального reasoning слоя для сборки персистентных локальных ИИ-агентов с Ollama и LM Studio. Установка, примеры, сравнения.
Исправление ошибки Jinja в Devstral Small 2: кастомный шаблон для llama.cpp и агентов
Готовое решение для исправления runtime error в Devstral Small 2 при использовании с llama.cpp и агентскими инструментами. Кастомный chat template и примеры код