Инструменты
Подборка AI-инструментов. Только то, что работает.
Qwen 3.5 397B на Mac: рекорд 93% на MMLU и квантование для MLX
Анонс Qwen 3.5 397B с рекордом 93% на MMLU. Квантование для MLX позволяет запустить гигантскую модель на Mac с Apple Silicon. Обзор, сравнение и примеры использ
TextRM-28M: тестируем крошечную модель для бизнес-писем с кодом на GitHub
Обзор TextRM-28M - модели на 28 миллионов параметров для генерации бизнес-писем. Тестируем возможности, сравниваем с альтернативами, примеры кода на Python.
LiteParse от LlamaIndex: локальный парсинг документов через CLI без облаков
Обзор LiteParse от LlamaIndex - open-source CLI для локального парсинга документов. Установка, примеры команд, сравнение с облачным LlamaParse. Анализ возможнос
Субсекундный запуск 32B моделей: технология восстановления состояния для мгновенной загрузки ИИ
Обзор технологии восстановления состояния GPU для запуска 32B моделей за секунды. Как работает, сравнение с альтернативами и практическое применение локально в
QwenDean-4B: Ваш локальный v0-dev за 4 миллиарда параметров
Практический разбор QwenDean-4B - fine-tuned Qwen3-4B для генерации интерфейсов как v0.dev. Возможности, сравнение, примеры использования и кому подойдет.
Обзор PearlOS: как запустить рой интеллектуальных агентов на своём ПК с локальным TTS
Обзор PearlOS - ОС для интеллектуальных агентов с поддержкой локальных моделей и TTS. Установка, примеры, сравнение с аналогами на 2026 год.
Widemem: open-source память для агентов с оценкой достоверности, чтобы ИИ говорил «Не знаю»
Обзор Widemem — open-source библиотеки для борьбы с галлюцинациями AI-агентов. Векторный поиск с SQLite, оценка confidence score, интеграция с Ollama. Установка
acestep.cpp: как установить и использовать портируемую реализацию ACE-Step 1.5 для генерации музыки на GGML
Пошаговое руководство по установке и использованию acestep.cpp — портируемой реализации ACE-Step 1.5 для локальной генерации музыки на CPU, CUDA и Metal.
Nemotron-3-Super-120B дистиллирована от Claude 4.6: когда 120 миллиардов параметров помещаются в ваш ноутбук
Практический обзор дистиллированной Nemotron-3-Super-120B от Claude 4.6. Сравнение форматов BF16, FP8, GGUF и инструкция по локальному запуску мощной модели.
SPEED-Bench: когда спекулятивное декодирование перестает быть магией и становится цифрами
Полный обзор SPEED-Bench — нового стандарта для оценки скорости спекулятивного декодирования в больших языковых моделях. Примеры использования и сравнения.
AFM MLX: как ускорить локальные LLM на Mac с помощью нативного Swift-инструмента
Узнайте, как AFM MLX ускоряет локальные LLM на Apple Silicon с помощью нативного Swift, batch mode и prefix cache. Сравнение с альтернативами и примеры использо
CompactifAI: как технологии сжатия Multiverse Computing позволяют запускать мощные модели локально
Как работает CompactifAI от Multiverse Computing. Технология квантового сжатия для запуска GPT-4o-class моделей на ноутбуке. Сравнение, примеры, кому подойдет в