Инструменты
Подборка AI-инструментов. Только то, что работает.
Файл в 152KB заставит вашу локальную LLM работать как научный ассистент
Превратите любую локальную модель в интерактивный исследовательский инструмент с помощью одного JSON-файла на 152KB. Секрет сжатия знаний.
Claude Cowork: ваш новый коллега, который умеет всё с файлами
Как использовать Claude Cowork для обработки чеков, управления медиа и создания отчётов. Сравнение с альтернативами и практические примеры.
HyperNova-60B: тестирование новой квантованной модели для генерации кода на AMD GPU
Обзор и тестирование HyperNova-60B в формате GGUF IQ4_XS. Проверяем генерацию кода C++ на AMD Radeon 7900 XTX, сравниваем с альтернативами и оцениваем практичес
Engram от DeepSeek: Как новая архитектура разреженности ускоряет LLM через условную память
Разбираем Engram от DeepSeek — архитектуру условной памяти для LLM. Как scalable lookup и разреженность ускоряют инференс в 2-3 раза на GitHub.
Cerebras GLM4.7 REAP: как использовать обрезанные модели для экономии памяти и ускорения
Как использовать Cerebras GLM4.7 REAP с 25% и 40% pruning, FP8 и BF16 квантованиями для экономии памяти и ускорения инференса. Практическое руководство.
Как настроить 4B Text2SQL модель для запросов к CSV: локальный аналог DeepSeek-V3 с Ollama
Пошаговый гайд по fine-tuning 4B модели для Text2SQL запросов к CSV файлам. Локальный запуск через Ollama, сравнение с DeepSeek-V3 по скорости и приватности.
GLM-Image: Китайский гибрид, который генерирует и правит картинки
Обзор GLM-Image от Z.AI. Архитектура, возможности text-to-image и image-to-image, сравнение с аналогами, примеры использования. Кому подойдет эта модель?
Eva-4B: нейросеть, которая ловит финансовую ложь лучше GPT-5.2
Специализированная модель Eva-4B для выявления evasion в финансовой отчётности. Обзор возможностей, сравнение с GPT-5.2, практическое применение.
GLM-4.7 REAP 218B: 218 миллиардов параметров, которые вы никогда не запустите (но квантованные - может быть)
Реальные тесты производительности Cerebras GLM-4.7 REAP 218B. Сравнение квантованных версий с оригиналом, загрузка с HuggingFace, анализ против Llama 3.2 90B.
Supertonic 2 TTS: обзор сверхбыстрой модели для синтеза речи с Hugging Face
Обзор Supertonic 2 TTS - сверхбыстрой мультиязычной модели для синтеза речи. Сравнение с альтернативами, примеры использования и рекомендации.
Tiiny AI Pocket Lab: обзор самого маленького суперкомпьютера с LLM на 120B параметров для дронов и IoT
Обзор Tiiny AI Pocket Lab - edge AI ускоритель с ARMv9.2, 190 TOPS, энергопотреблением 30 Вт для локального инференса моделей до 120B параметров.
Confluence2md: как превратить корпоративный архив в данные для RAG за 5 минут
Обзор confluence2md — инструмента для парсинга экспортов Confluence в Markdown. Ускорьте подготовку данных для корпоративных LLM.