Инструменты
Подборка AI-инструментов. Только то, что работает.
Refusal Steering: открытый код для хирургического удаления "отказов" у LLM с статистической валидацией
Обзор Refusal Steering — open-source инструмента для тонкой настройки LLM с хирургическим удалением отказов и статистической валидацией результатов.
SMART SLM: Маленькая языковая модель с памятью для работы с документами — революция для локального RAG
Обзор SMART SLM — маленькой языковой модели со структурной памятью для локального RAG. Сравнение с альтернативами, примеры использования и рекомендации.
AI-Doomsday-Toolbox: Запускаем большие LLM на нескольких телефонах одновременно
Как запускать большие языковые модели на нескольких Android-телефонах одновременно с помощью llama.cpp и распределенных вычислений. Практический гайд.
Plaud Note Pro: Обзор самой тонкой в мире ИИ-диктофона, который помещается в кошелек
Подробный обзор Plaud Note Pro — самого тонкого ИИ-диктофона толщиной 0.12 дюйма. Характеристики, сравнение с аналогами, примеры использования и рекомендации.
BULaMU-Dream: Как я с нуля обучил первую в мире тексто-изображение модель на африканском языке
Полный обзор создания BULaMU-Dream - первой в мире тексто-изображение модели на африканском языке. Обучение диффузионных моделей с нуля для underrepresented язы
Privemail — убийца ChatGPT для почты: как я сделал email-клиент с локальным AI за 0 рублей
Как создать приватный email-клиент с локальным AI на Ollama и Gmail API. Полная конфиденциальность, оффлайн-модели и 0 рублей затрат.
ZAGORA: как тренировать 70B модели на 4 видеокартах без OOM ошибок
Обзор ZAGORA — инструмента для распределенного обучения больших языковых моделей на нескольких видеокартах без ошибок OOM. Методы Federated Learning, сравнение
CommerceTXT: новый стандарт для RAG-агентов, который сокращает токены на 95%
Обзор CommerceTXT — открытого стандарта для RAG-агентов, который сокращает токены на 95% за счёт структурирования веб-данных. Примеры кода и сравнение.
Meeting-LLM: Как создать свой локальный ИИ-ассистент для совещаний без облаков
Пошаговый гайд по установке Meeting-LLM — локального open-source ИИ для транскрипции и анализа совещаний. Работает офлайн на вашем ПК без cloud-зависимостей.
Как построить локальный голосовой ассистент с бесконечными инструментами на n8n
Пошаговое руководство по созданию расширяемого локального голосового ассистента с бесконечными инструментами на базе Ollama, n8n и LiveKit.
Вскрыт «регулятор креатива» в LLaMA 3.2: Одна строка кода меняет тон ответов от сухого до разговорного
Обзор инструмента fMRI probing для контроля тона LLaMA 3.2. Меняйте стиль ответов от формального до креативного одной строкой Python.
llama.cpp RPC-server: дистрибутивные вычисления на старом железе — тесты и настройка
Тесты производительности и настройка llama.cpp RPC-server для запуска больших языковых моделей на разнородном и устаревшем оборудовании.