Что такое Meeting-LLM и почему он нужен именно вам
Meeting-LLM — это open-source решение для автоматической транскрипции и анализа совещаний, которое работает полностью локально на вашем компьютере. В отличие от облачных сервисов вроде Otter.ai или Fireflies.ai, этот инструмент не отправляет ваши конфиденциальные разговоры в чужие дата-центры, а обрабатывает всё на вашем железе.
Архитектура и ключевые компоненты
Проект построен на нескольких мощных open-source технологиях, которые работают в связке:
| Компонент | Назначение | Альтернативы |
|---|---|---|
| T-One | Speech-to-Text (распознавание речи) | Whisper, Vosk |
| GPT-OSS-20B | Анализ текста, генерация протоколов | Llama 3, Mistral, Qwen |
| Веб-интерфейс | Управление и просмотр результатов | — |
| PostgreSQL | Хранение транскрипций и метаданных | SQLite, MySQL |
T-One — это более легкая альтернатива Whisper, которая требует меньше ресурсов при сохранении хорошего качества распознавания русского языка. Особенно полезно для слабого железа.
Требования к оборудованию
Для комфортной работы Meeting-LLM потребуется:
- CPU: Современный процессор (Intel i5/i7 или AMD Ryzen 5/7)
- RAM: Минимум 16 ГБ, рекомендуется 32 ГБ
- GPU (опционально): NVIDIA с 8+ ГБ VRAM для ускорения LLM
- Память: 20+ ГБ свободного места
- ОС: Linux (рекомендуется), Windows через WSL2, macOS
Если у вас нет мощной видеокарты, не переживайте — система будет работать на CPU, хотя и медленнее. Для получения лучшей производительности с локальными LLM рекомендую ознакомиться с сравнительным обзором инструментов для локального запуска LLM.
Пошаговая установка и настройка
1Подготовка окружения
Начните с установки необходимых зависимостей. Для Ubuntu/Debian:
sudo apt update
sudo apt install python3-pip python3-venv git ffmpeg postgresql postgresql-contrib2Клонирование репозитория
git clone https://github.com/meeting-llm/meeting-llm.git
cd meeting-llm3Настройка виртуального окружения
python3 -m venv venv
source venv/bin/activate
pip install -r requirements.txt4Настройка базы данных
sudo -u postgres createdb meeting_llm
sudo -u postgres psql -c "CREATE USER meeting_user WITH PASSWORD 'ваш_пароль';"
sudo -u postgres psql -c "GRANT ALL PRIVILEGES ON DATABASE meeting_llm TO meeting_user;"5Конфигурация приложения
Создайте файл .env в корне проекта:
DATABASE_URL=postgresql://meeting_user:ваш_пароль@localhost/meeting_llm
MODEL_PATH=./models/gpt-oss-20b-q4_K_M.gguf
TONE_MODEL=./models/t-one-ru6Загрузка моделей
Скачайте необходимые модели:
# Модель для транскрипции (T-One)
wget https://huggingface.co/t-one-model/resolve/main/t-one-ru.bin -P ./models/
# Модель для анализа (GPT-OSS-20B)
wget https://huggingface.co/TheBloke/GPT-OSS-20B-GGUF/resolve/main/gpt-oss-20b-q4_K_M.gguf -P ./models/GPT-OSS-20B занимает около 12 ГБ в формате GGUF. Если у вас мало места или слабое железо, рассмотрите более легкие модели из обзора лучших LLM с поддержкой Tool Calling.
7Запуск приложения
python app.pyПосле запуска откройте браузер и перейдите по адресу http://localhost:5000.
Как использовать Meeting-LLM на практике
Базовый сценарий: анализ записанной встречи
1. Загрузите аудиофайл встречи (поддерживаются MP3, WAV, M4A)
2. Система автоматически транскрибирует его с помощью T-One
3. GPT-OSS-20B анализирует текст и генерирует:
• Краткое содержание
• Список принятых решений
• Задачи с исполнителями и сроками
• Ключевые темы обсуждения
Расширенные возможности
- Анализ нескольких встреч: Сравнение тем и трендов по времени
- Поиск по архиву: Найдите все обсуждения конкретной темы
- Экспорт: Протоколы в форматах PDF, Markdown, JSON
- Интеграции: Webhook для автоматической отправки задач в Trello, Jira, Notion
Для более сложных сценариев автоматизации рекомендую изучить статью о создании голосового ассистента с n8n.
Сравнение с альтернативами
| Решение | Локальное | Открытый код | Качество STT | Стоимость |
|---|---|---|---|---|
| Meeting-LLM | ✅ Полностью | ✅ MIT License | Хорошее (T-One) | Бесплатно |
| Otter.ai | ❌ Облако | ❌ Проприетарное | Отличное | От $10/мес |
| Whisper + LangChain | ✅ Возможно | ✅ Открытое | Отличное | Бесплатно |
| Fireflies.ai | ❌ Облако | ❌ Проприетарное | Хорошее | От $10/мес |
Как видите, Meeting-LLM предлагает лучший баланс между приватностью, стоимостью и функциональностью. Если вам нужно решение на базе Whisper, обратите внимание на гайд по созданию голосового ассистента на LangChain и Whisper.
Оптимизация производительности
Если Meeting-LLM работает медленно, попробуйте эти оптимизации:
- Используйте quantization: Загрузите 4-битную или 5-битную версию GPT-OSS-20B
- Настройте llama.cpp: Используйте
--n-gpu-layersдля загрузки слоев на GPU - Кэшируйте результаты: Настройте кэширование транскрипций
- Используйте более легкую модель: Например, Mistral 7B вместо GPT-OSS-20B
Для дистрибутивных вычислений на нескольких компьютерах изучите статью про llama.cpp RPC-server.
Расширение функциональности
Кастомизация промптов
Meeting-LLM позволяет настраивать промпты для анализа. Отредактируйте файл prompts/meeting_analysis.txt:
Проанализируй транскрипцию встречи и выдели:
1. Ключевые решения (формат: "Решение: [текст]", "Ответственный: [имя]", "Срок: [дата]")
2. Обсужденные темы
3. Открытые вопросы
4. Действия для каждого участникаИнтеграция с календарем
Добавьте автоматическую запись встреч из Google Calendar или Outlook:
# Пример интеграции с Google Calendar API
import googleapiclient.discovery
def record_upcoming_meetings():
# Получаем список предстоящих встреч
# Автоматически начинаем запись за 2 минуты до начала
passМультиязычная поддержка
По умолчанию T-One настроен на русский язык, но вы можете добавить другие модели для поддержки английского, немецкого, французского и других языков.
Кому подойдет Meeting-LLM
- Стартапы и малый бизнес: Экономьте на подписках и защищайте интеллектуальную собственность
- Юридические и медицинские практики: Соответствие требованиям конфиденциальности (GDPR, HIPAA)
- Исследовательские группы: Анализ интервью и фокус-групп
- Разработчики: Базовый код для создания собственных решений
- Образовательные учреждения: Запись и анализ лекций, семинаров
Ограничения и будущее развитие
Meeting-LLM — не идеальное решение. Его текущие ограничения:
- Качество транскрипции уступает Whisper Large в шумной среде
- Требует технических навыков для установки и настройки
- Нет мобильного приложения
- Ограниченная поддержка форматов видеофайлов
Однако активное развитие open-source экосистемы обещает быстрое улучшение этих аспектов. Уже сейчас можно интегрировать Meeting-LLM с Ollama для более удобного управления моделями или добавить мультимодальные возможности из гайда по Multi-modal RAG.
Заключение
Meeting-LLM демонстрирует, что создание приватных, локальных ИИ-инструментов для бизнеса стало доступным даже для небольших команд. Хотя настройка требует некоторых технических усилий, вы получаете полный контроль над своими данными, нулевую ежемесячную стоимость и возможность кастомизации под свои нужды.
Этот проект — отличная отправная точка для создания собственной экосистемы локальных ИИ-инструментов. Начните с Meeting-LLM, затем добавьте интеграцию с IDE и CLI-инструментами или поэкспериментируйте с регуляторами креатива в LLM для тонкой настройки тона ответов.
Приватность данных больше не должна быть роскошью. С Meeting-LLM и современными open-source ИИ-инструментами вы можете автоматизировать бизнес-процессы, не жертвуя конфиденциальностью.