Почему я больше не доверяю облачным AI
Честно? Меня бесит, когда каждый чих моего терминала улетает на чей-то сервер. ChatGPT удобен, пока не замечаешь, что твои приватные коммиты, логи ошибок и даже мысли вслух про архитектуру становятся сырьём для обучения очередной модели. А потом приходит цензура: «Извините, я не могу ответить на этот вопрос». Или лимит токенов. Или счёт за API, который вырос в десять раз после релиза новой версии.
Я инженер, я привык контролировать свой стек. Поэтому когда наткнулся на Meera — open-source AI-ассистента для Linux, который живёт целиком локально, — я сразу понял: это то, что нужно. Никаких облаков, никакой телеметрии, полный контроль над моделью, промптами и инструментами. И да, работает офлайн, хоть в бункере.
Что такое Meera и почему она стоит вашего вечера
Meera — это не просто обёртка над llama.cpp. Это полноценный фреймворк для сборки персонального AI-ассистента с поддержкой:
- Любых LLM в формате GGUF (от Qwen2.5 до Llama 3.2 и DeepSeek)
- RAG (Retrieval-Augmented Generation) — подключаете свою базу знаний, документы, код
- Инструментов (раннер команд, поиск по файлам, управление Docker, работа с Git)
- Голосового ввода/вывода через Whisper и Piper TTS
- Интеграции с systemd — просыпается вместе с системой
Архитектура модульная: бэкенд на Python (FastAPI), фронт — веб-интерфейс на React, всё общается через REST. Модели тянет из репозитория Hugging Face или вашей локальной папки. Всё под вашим полным контролем.
Сравнение с альтернативами: В отличие от Open Cowork, который тоже не шпионит и написан на Rust, Meera предлагает более широкий набор инструментов сразу из коробки и гибкую систему плагинов. А SalmAlm с его 62 инструментами — перебор для тех, кому нужен простой ежедневный помощник. Meera — золотая середина.
Что нужно, чтобы Meera заработала
Железо.
Не верьте маркетингу: запустить 70B модель на ноутбуке 2015 года не выйдет. Вот реалистичные требования (проверено на практике):
| Компонент | Минимально | Комфортно |
|---|---|---|
| CPU | 4 ядра, AVX2 | 8+ ядер, AVX-512 |
| RAM | 8 ГБ (для 3B модели) | 32 ГБ (для 7–13B) |
| GPU (опционально) | — | NVIDIA с 8+ ГБ VRAM (CUDA 12) |
| Диск | 10 ГБ свободно | 50+ ГБ для нескольких моделей |
Из софта: Linux (Ubuntu 24.04/26.04, Fedora, Arch — неважно), Python 3.12+, Node.js 20+, Git, make, gcc, curl. Для GPU — драйвер NVIDIA и CUDA Toolkit.
Предупреждение: Не пытайтесь ставить на 32-битные системы или старые ядра — llama.cpp требует AVX2. На Raspberry Pi 4 запустится только самая маленькая модель (Qwen2.5-0.5B) с черепашьей скоростью.
Собираем Meera: от репозитория до первого «Здравствуй»
Я покажу самый прямой путь — без лишних движений. Все команды для bash. Поехали.
1 Установка зависимостей
Обновите систему и поставьте базовый набор:
sudo apt update && sudo apt upgrade -y
sudo apt install -y python3 python3-pip python3-venv git build-essential \
cmake libssl-dev libcurl4-openssl-dev portaudio19-dev \
flac libasound2-dev libsndfile1-dev
Если у вас Fedora — замените apt на dnf, на Arch — pacman. Node.js ставим через nvm, чтобы не было конфликтов версий.
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.1/install.sh | bash
source ~/.bashrc
nvm install 22
2 Клонируем Meera
git clone https://github.com/meera-assistant/meera.git
cd meera
Создаём виртуальное окружение и ставим Python-зависимости:
python3 -m venv venv
source venv/bin/activate
pip install --upgrade pip
pip install -r requirements.txt
Зависимости фронтенда:
cd frontend
npm install
cd ..
3 Скачиваем модель
Meera использует llama.cpp. Самый простой способ — скачать готовый GGUF через скрипт. Для начала возьмите Qwen2.5-7B-Instruct (отличный баланс скорости и качества):
python3 scripts/download_model.py --model Qwen/Qwen2.5-7B-Instruct-GGUF --output models/
Если места мало — берите 3B версию. Скрипт автоматически подберёт оптимальный квантизатор (Q4_K_M). Загрузка может занять 5–15 минут в зависимости от канала.
4 Настройка конфигурации
Редактируем config.yaml. Вот минимальный рабочий конфиг:
model:
path: "models/qwen2.5-7b-instruct-q4_k_m.gguf"
context_length: 8192
n_gpu_layers: -1 # если есть GPU, иначе 0
server:
host: "127.0.0.1"
port: 8080
api_key: "" # если не нужен ключ, оставьте пустым
rag:
enabled: false # включите потом для своей базы знаний
chunk_size: 512
top_k: 3
tools:
- terminal
- filesystem
- git
Параметр n_gpu_layers: -1 грузит модель полностью на GPU. Если у вас только CPU — поставьте 0. Контекст 8192 — золотая середина для большинства задач.
5 Запуск
source venv/bin/activate
python3 meera.py
Через 10–30 секунд (в зависимости от модели) появится сообщение:
[INFO] Server started on http://127.0.0.1:8080
Откройте браузер и перейдите на этот адрес. Вы увидите интерфейс чата. Напишите «hello» — если модель ответила, всё работает.
6 Добавляем в автозагрузку (systemd)
Чтобы Meera стартовала при включении компьютера и висела в фоне:
sudo nano /etc/systemd/system/meera.service
Вставьте (подставьте свой путь):
[Unit]
Description=Meera AI Assistant
After=network.target
[Service]
User=your_username
WorkingDirectory=/home/your_username/meera
ExecStart=/home/your_username/meera/venv/bin/python3 /home/your_username/meera/meera.py
Restart=on-failure
[Install]
WantedBy=multi-user.target
sudo systemctl daemon-reload
sudo systemctl enable meera --now
sudo systemctl status meera
Всё. Ассистент живёт в системе, не занимая терминал.
Грабли, на которые я наступил (чтоб вы не повторяли)
За две недели эксплуатации я собрал коллекцию ошибок. Делюсь — сэкономите пару часов.
- Python 3.13 не подходит — llama.cpp ещё не до конца поддерживает 3.13 на мае 2026. Используйте 3.12, иначе получите segfault при загрузке модели.
- Не ставьте модель в системную папку — если у вас мало места на корневом разделе, скачивайте в /home или на отдельный диск. Модели весят 4–15 ГБ.
- Конфликт портов — если у вас уже крутится что-то на 8080, смените в конфиге на 8081 или другой.
- Ошибка при загрузке аудио — для голосового ввода нужен портаудио и flac. На свежей Ubuntu без libasound2-dev может не собраться. Проверьте, что все dev-пакеты из первого шага установлены.
- Медленные ответы через веб-интерфейс — если используете VPN или прокси, они могут резать скорость. Лучше запускать на localhost и не проксировать.
Расширяем Meera: RAG, голос, плагины
Базовая установка — только начало. Meera легко апгрейдится.
Подключаем свою базу знаний
Включите RAG в конфиге:
rag:
enabled: true
chunk_size: 512
top_k: 5
vector_store: "chromadb"
source_dirs:
- "/home/you/Documents"
- "/home/you/Projects/my_project"
После перезапуска Meera проиндексирует все текстовые файлы в указанных папках. Теперь на вопрос «Как у нас устроена аутентификация?» она найдёт ответ в вашей документации, а не выдумает из воздуха.
Голосовое управление
Для микрофона и динамиков установите пакеты:
pip install whisper-ctranslate2 tts
И включите в конфиге:
voice:
enabled: true
input_model: "whisper-small"
output_model: "tts_models/en/ljspeech/tacotron2-DDC"
После рестарта сможете говорить с ассистентом через гарнитуру. Качество синтеза — приятное, не роботизированное.
Плагины и инструменты
Meera поддерживает модульные плагины. Например, можно добавить управление умным домом через Home Assistant — подробнее об этом в гайде создания автономного AI-агента для умного дома. Или интегрировать её с OpenCode и Docker Model Runner для разработки — как показано в статье о локальном ассистенте для кода.
Важно: Включать все инструменты сразу (особенно terminal и git) — риск безопасности. Meera запрашивает подтверждение перед выполнением команд, но я советую запретить опасные действия в конфиге через поле dangerous_commands: [].
Что не так с Meera и почему я всё равно её использую
Без розовых очков: проект ещё сыроват. Документация — на троечку, некоторые функции ломаются после обновления зависимостей. Но сообщество активно (200+ форков на GitHub), и за месяц выходит два-три коммита, фиксящих баги. Если вы умеете читать stack trace и править Python — проблем не будет.
Главный плюс, который перевешивает: приватность и свобода. Я не завишу от интернета, от политики OpenAI, от роста цен. Могу загрузить любую модель, даже специально дообученную для моих задач. И, чёрт возьми, это мой личный ассистент. Он не шпионит, не цензурирует и не просит денег.
Если вы до сих пор не попробовали — вечер пятницы идеально подходит для сборки. Кстати, на мощной машине (RTX 4090 + 64 ГБ RAM) я однажды запустил DeepSeek-R1-32B через Meera — скорость генерации была комфортной, а качество ответов не уступало Claude 3.5 Sonnet. Так что горизонт возможностей широк.
А если захочется монстра с кучей функций — добро пожаловать в статью о построении AI-монстра, где мы собираем мульти-агентную систему. Но для ежедневных задач Meera — лучший выбор прямо сейчас.