Инструменты
Подборка AI-инструментов. Только то, что работает.
Soprano 1.1-80M: как новая TTS модель победила галлюцинации и улучшила качество звука — обзор и сравнение
Soprano 1.1-80M сократила галлюцинации на 95% и получила +63% предпочтений. Обзор возможностей, сравнение с другими TTS и тест на Hugging Face.
NeuTTS Nano: голос для робота, который помещается в карман
Обзор NeuTTS Nano — сверхкомпактной TTS модели на Llama3. Тесты на Raspberry Pi 5 и Jetson Nano, сравнение с Pocket TTS и Sonya TTS, клонирование голоса.
Клонируем Claude Cowork: open-source альтернатива на MiniMax M2.1 для локального запуска
Полный гайд по созданию бесплатной локальной версии Claude Cowork на базе MiniMax M2.1 с оптимизацией для Apple Silicon
Train LoRA поверх GGUF: инструкция по экономии VRAM и обходу bnb
Гайд по тонкой настройке LoRA поверх квантованных GGUF моделей. Экономия VRAM, обучение Qwen-30B на 16 ГБ вместо 24 ГБ. Альтернатива стандартному подходу.
Real-Time Bidding для AI: открытый репозиторий с датасетом, симулятором и RL-агентами
Обзор открытого инструмента для Real-Time Bidding с reinforcement learning: датасет, симулятор аукционов и готовые RL-агенты для онлайн-рекламы
ZLUDA для llama.cpp: ускорение LLM на AMD GPU без переписывания кода
ZLUDA позволяет запускать оптимизированный под CUDA код llama.cpp на видеокартах AMD. Обзор, сравнение с Vulkan и ROCm, примеры использования.
Pocket TTS: легкая 100M-параметровая модель, которая помещается в карман и работает без GPU
Обзор Pocket TTS - 100M-параметровой модели для локального синтеза речи. Сравнение с Coqui TTS, установка через Hugging Face и примеры использования.
Девять тысяч страниц интимного перевода: как билингвальная эротика учит LLM писать
Практическое руководство по использованию уникального датасета в 3.2 млн слов для тонкой настройки творческих языковых моделей. Примеры, сравнения, инструкция.
EXAONE MoE в llama.cpp: как запустить 236B модель локально и в чём её уникальность
Гайд по запуску EXAONE MoE 236B модели в llama.cpp. Mixture-of-Experts, 256K контекст, мультиязычность, self-speculative decoding. Системные требования, сравнен
Медицинский почерк на Qwen2.5-VL: как выжать OCR из MacBook с 8 ГБ памяти
Практическое руководство по настройке Qwen2.5-VL-3B/7B для распознавания рукописных медицинских журналов на Mac с 8 ГБ памяти. Сравнение с альтернативами, оптим
ClaudeGate: Как платить в 10 раз меньше за Claude API без переписывания кода
CLI-обёртка для замены Claude API на OpenRouter, DeepSeek и другие провайдеры. Установка, настройка, примеры использования.
GLM-Image: обзор новой открытой мультимодальной модели от Zai Org и сравнение с Qwen-VL и LLaVA
GLM-Image - новая открытая vision-language модель от Zai Org. Сравниваем с Qwen-VL и LLaVA по возможностям, производительности и применению.