Meeting-LLM: Локальный ИИ для анализа встреч без облаков | Гайд 2025 | AiManual
AiManual Logo Ai / Manual.
29 Дек 2025 Инструмент

Meeting-LLM: Как создать свой локальный ИИ-ассистент для совещаний без облаков

Пошаговый гайд по установке Meeting-LLM — локального open-source ИИ для транскрипции и анализа совещаний. Работает офлайн на вашем ПК без cloud-зависимостей.

Что такое Meeting-LLM и почему он нужен именно вам

Meeting-LLM — это open-source решение для автоматической транскрипции и анализа совещаний, которое работает полностью локально на вашем компьютере. В отличие от облачных сервисов вроде Otter.ai или Fireflies.ai, этот инструмент не отправляет ваши конфиденциальные разговоры в чужие дата-центры, а обрабатывает всё на вашем железе.

💡
Meeting-LLM особенно ценен для компаний, работающих с чувствительной информацией: юристов, врачей, финансовых консультантов, стартапов на ранней стадии и любых организаций, где конфиденциальность данных — приоритет.

Архитектура и ключевые компоненты

Проект построен на нескольких мощных open-source технологиях, которые работают в связке:

КомпонентНазначениеАльтернативы
T-OneSpeech-to-Text (распознавание речи)Whisper, Vosk
GPT-OSS-20BАнализ текста, генерация протоколовLlama 3, Mistral, Qwen
Веб-интерфейсУправление и просмотр результатов
PostgreSQLХранение транскрипций и метаданныхSQLite, MySQL

T-One — это более легкая альтернатива Whisper, которая требует меньше ресурсов при сохранении хорошего качества распознавания русского языка. Особенно полезно для слабого железа.

Требования к оборудованию

Для комфортной работы Meeting-LLM потребуется:

  • CPU: Современный процессор (Intel i5/i7 или AMD Ryzen 5/7)
  • RAM: Минимум 16 ГБ, рекомендуется 32 ГБ
  • GPU (опционально): NVIDIA с 8+ ГБ VRAM для ускорения LLM
  • Память: 20+ ГБ свободного места
  • ОС: Linux (рекомендуется), Windows через WSL2, macOS

Если у вас нет мощной видеокарты, не переживайте — система будет работать на CPU, хотя и медленнее. Для получения лучшей производительности с локальными LLM рекомендую ознакомиться с сравнительным обзором инструментов для локального запуска LLM.

Пошаговая установка и настройка

1Подготовка окружения

Начните с установки необходимых зависимостей. Для Ubuntu/Debian:

sudo apt update
sudo apt install python3-pip python3-venv git ffmpeg postgresql postgresql-contrib

2Клонирование репозитория

git clone https://github.com/meeting-llm/meeting-llm.git
cd meeting-llm

3Настройка виртуального окружения

python3 -m venv venv
source venv/bin/activate
pip install -r requirements.txt

4Настройка базы данных

sudo -u postgres createdb meeting_llm
sudo -u postgres psql -c "CREATE USER meeting_user WITH PASSWORD 'ваш_пароль';"
sudo -u postgres psql -c "GRANT ALL PRIVILEGES ON DATABASE meeting_llm TO meeting_user;"

5Конфигурация приложения

Создайте файл .env в корне проекта:

DATABASE_URL=postgresql://meeting_user:ваш_пароль@localhost/meeting_llm
MODEL_PATH=./models/gpt-oss-20b-q4_K_M.gguf
TONE_MODEL=./models/t-one-ru

6Загрузка моделей

Скачайте необходимые модели:

# Модель для транскрипции (T-One)
wget https://huggingface.co/t-one-model/resolve/main/t-one-ru.bin -P ./models/

# Модель для анализа (GPT-OSS-20B)
wget https://huggingface.co/TheBloke/GPT-OSS-20B-GGUF/resolve/main/gpt-oss-20b-q4_K_M.gguf -P ./models/

GPT-OSS-20B занимает около 12 ГБ в формате GGUF. Если у вас мало места или слабое железо, рассмотрите более легкие модели из обзора лучших LLM с поддержкой Tool Calling.

7Запуск приложения

python app.py

После запуска откройте браузер и перейдите по адресу http://localhost:5000.

Как использовать Meeting-LLM на практике

Базовый сценарий: анализ записанной встречи

1. Загрузите аудиофайл встречи (поддерживаются MP3, WAV, M4A)
2. Система автоматически транскрибирует его с помощью T-One
3. GPT-OSS-20B анализирует текст и генерирует:
    • Краткое содержание
    • Список принятых решений
    • Задачи с исполнителями и сроками
    • Ключевые темы обсуждения

Расширенные возможности

  • Анализ нескольких встреч: Сравнение тем и трендов по времени
  • Поиск по архиву: Найдите все обсуждения конкретной темы
  • Экспорт: Протоколы в форматах PDF, Markdown, JSON
  • Интеграции: Webhook для автоматической отправки задач в Trello, Jira, Notion

Для более сложных сценариев автоматизации рекомендую изучить статью о создании голосового ассистента с n8n.

Сравнение с альтернативами

РешениеЛокальноеОткрытый кодКачество STTСтоимость
Meeting-LLM✅ Полностью✅ MIT LicenseХорошее (T-One)Бесплатно
Otter.ai❌ Облако❌ ПроприетарноеОтличноеОт $10/мес
Whisper + LangChain✅ Возможно✅ ОткрытоеОтличноеБесплатно
Fireflies.ai❌ Облако❌ ПроприетарноеХорошееОт $10/мес

Как видите, Meeting-LLM предлагает лучший баланс между приватностью, стоимостью и функциональностью. Если вам нужно решение на базе Whisper, обратите внимание на гайд по созданию голосового ассистента на LangChain и Whisper.

Оптимизация производительности

Если Meeting-LLM работает медленно, попробуйте эти оптимизации:

  1. Используйте quantization: Загрузите 4-битную или 5-битную версию GPT-OSS-20B
  2. Настройте llama.cpp: Используйте --n-gpu-layers для загрузки слоев на GPU
  3. Кэшируйте результаты: Настройте кэширование транскрипций
  4. Используйте более легкую модель: Например, Mistral 7B вместо GPT-OSS-20B

Для дистрибутивных вычислений на нескольких компьютерах изучите статью про llama.cpp RPC-server.

Расширение функциональности

Кастомизация промптов

Meeting-LLM позволяет настраивать промпты для анализа. Отредактируйте файл prompts/meeting_analysis.txt:

Проанализируй транскрипцию встречи и выдели:
1. Ключевые решения (формат: "Решение: [текст]", "Ответственный: [имя]", "Срок: [дата]")
2. Обсужденные темы
3. Открытые вопросы
4. Действия для каждого участника

Интеграция с календарем

Добавьте автоматическую запись встреч из Google Calendar или Outlook:

# Пример интеграции с Google Calendar API
import googleapiclient.discovery

def record_upcoming_meetings():
    # Получаем список предстоящих встреч
    # Автоматически начинаем запись за 2 минуты до начала
    pass

Мультиязычная поддержка

По умолчанию T-One настроен на русский язык, но вы можете добавить другие модели для поддержки английского, немецкого, французского и других языков.

Кому подойдет Meeting-LLM

  • Стартапы и малый бизнес: Экономьте на подписках и защищайте интеллектуальную собственность
  • Юридические и медицинские практики: Соответствие требованиям конфиденциальности (GDPR, HIPAA)
  • Исследовательские группы: Анализ интервью и фокус-групп
  • Разработчики: Базовый код для создания собственных решений
  • Образовательные учреждения: Запись и анализ лекций, семинаров
💡
Если вы разработчик и хотите создать более интеллектуального агента с лучшим пониманием контекста, изучите техники из статьи «Agent Skills: как упаковать знания для LLM-агентов».

Ограничения и будущее развитие

Meeting-LLM — не идеальное решение. Его текущие ограничения:

  • Качество транскрипции уступает Whisper Large в шумной среде
  • Требует технических навыков для установки и настройки
  • Нет мобильного приложения
  • Ограниченная поддержка форматов видеофайлов

Однако активное развитие open-source экосистемы обещает быстрое улучшение этих аспектов. Уже сейчас можно интегрировать Meeting-LLM с Ollama для более удобного управления моделями или добавить мультимодальные возможности из гайда по Multi-modal RAG.

Заключение

Meeting-LLM демонстрирует, что создание приватных, локальных ИИ-инструментов для бизнеса стало доступным даже для небольших команд. Хотя настройка требует некоторых технических усилий, вы получаете полный контроль над своими данными, нулевую ежемесячную стоимость и возможность кастомизации под свои нужды.

Этот проект — отличная отправная точка для создания собственной экосистемы локальных ИИ-инструментов. Начните с Meeting-LLM, затем добавьте интеграцию с IDE и CLI-инструментами или поэкспериментируйте с регуляторами креатива в LLM для тонкой настройки тона ответов.

Приватность данных больше не должна быть роскошью. С Meeting-LLM и современными open-source ИИ-инструментами вы можете автоматизировать бизнес-процессы, не жертвуя конфиденциальностью.