Инструменты
Подборка AI-инструментов. Только то, что работает.
Математика против галлюцинаций: как AWS Automated Reasoning заставляет LLM доказывать свои ответы
Как использовать математические доказательства для проверки ответов LLM и борьбы с галлюцинациями. Архитектура и open-source пример от AWS на 2026 год.
Qwen3-Coder-Next: обзор и тестирование лучшей локальной модели для общего общения
Тестирование Qwen3-Coder-Next как универсальной модели для общения. Сравнение с альтернативами, примеры диалогов и рекомендации по использованию на 09.02.2026
Transformers.js v4 Preview: WebGPU-ускорение моделей на Node.js, Bun и Deno вышло из браузера
Первые впечатления от Transformers.js v4 Preview: запускаем WebGPU-модели в Node.js, Bun и Deno без браузера. Установка, сравнение и примеры использования.
Полный стек для агентов на Amazon Bedrock: развертывание шаблона FAST (Fullstack AgentCore Solution Template)
Пошаговое руководство по развертыванию FAST шаблона для AI-агентов на Amazon Bedrock. CDK, React, Cognito - готовый стек за полчаса.
Кто сказал, что ИИ не понимает 1С? История создания ассистента, который заставил кастомный код объяснять сам себя
Как мы создали узкоспециализированного ИИ-ассистента для 1С-разработчиков, научили его понимать legacy-код и почему это оказалось выгоднее, чем гоняться за модн
LingBot-VA: как маленькая модель на 5.3B переиграла голиафа π0.5 в робототехнике
LingBot-VA 5.3B видео-действие модель с открытым кодом превосходит π0.5 в робототехнике. Обзор архитектуры, сравнение с альтернативами, примеры использования.
Izwi: когда Rust, приватность и голосовые модели решили жить вместе
Полный обзор Izwi — локального аудио-движка на Rust с поддержкой TTS, распознавания речи и клонирования голоса. Работает без интернета, поддерживает Apple Silic
P2P WebGPU-раннер для LLM в браузере: архитектура, тесты и будущее локального RAG
Полностью локальный запуск DeepSeek R1, Qwen 2.5 и Llama 3 в браузере через WebGPU и P2P-сеть. Архитектура, тесты производительности и будущее приватного RAG.
NeKot: терминальный клиент для локальных LLM, который не просит ключи API
Обзор NeKot - терминального клиента для локальных LLM с поддержкой KoboldCpp и веб-поиска. Работает без API-ключей, идеален для консольных энтузиастов.
BitNet b1.58 и bitnet.cpp: когда 1-битные LLM перестали быть шуткой и начали работать
Полное руководство по Microsoft BitNet b1.58 и bitnet.cpp. Запускаем 2B-модели на слабом железе, сравниваем с альтернативами и тестируем реальную производительн
LTX-2 19B на Jetson Thor: как заставить 19-миллиардную модель генерировать видео в 32 ГБ единой памяти
Практическое руководство по запуску LTX-2 19B на Jetson Thor. Оптимизация памяти, пайплайн диффузии и open-source код для генерации видео на embedded-устройства
Qwen-Image-Layered: ИИ, который режет картинки как Photoshop, но без ваших нервов
Практический тест модели Qwen-Image-Layered для семантического разделения изображений на слои. Сравнение с альтернативами, примеры работы и кому подойдет в 2026