Локальная LLM для документов: выбор железа Mac vs PC до $5000 | Гайд 2026 | AiManual
AiManual Logo Ai / Manual.
08 Фев 2026 Гайд

Как собрать локальную LLM-систему для обработки конфиденциальных документов: сравнение Mac vs PC и выбор железа

Полное руководство по сборке локальной LLM-системы для конфиденциальных данных. Сравнение M5 MacBook и PC с 24GB VRAM, выбор модели Qwen 3.5 8B, пошаговая настр

Зачем вам это нужно? Проблема конфиденциальности в 2026 году

Отправлять контракты, финансовые отчеты или медицинские записи в облако OpenAI или Anthropic - все равно что оставлять ключи от сейфа на столе в кафе. В теории все безопасно. На практике - одна утечка данных, и ваша компания платит миллионы штрафов. Особенно после ужесточения GDPR и новых законов о цифровом суверенитете.

Локальная обработка - не прихоть. Это требование для юристов, врачей, банковских аналитиков. Любой, кто работает с чувствительными документами. Но здесь возникает технический вопрос: какое железо выбрать? Mac на новом процессоре M5 или классический PC? Выбор сложнее, чем кажется.

Забудьте про "просто купи мощную видеокарту". Для документов важна не только скорость генерации, но и контекстное окно, потребление памяти, и главное - бесшумность работы в офисе. И да, бюджет до $5000 - это не про топовую RTX 4090 Ti (если она, конечно, еще существует в 2026).

Архитектура Apple Silicon M5 против классического PC: война за память

В 2026 году Apple представила чип M5. Единая память (до 192 ГБ в Max версиях) против дискретной видеопамяти NVIDIA. Что лучше для Qwen 3.1 8B (самая сбалансированная модель для документов на начало 2026)?

Параметр MacBook Pro M5 (38-core GPU) PC с RTX 4070 Ti Super 16GB
Стоимость конфигурации ~$3500 (с 36 ГБ RAM) ~$2200 (с 64 ГБ RAM)
Доступная память для LLM Единая: 36 ГБ (делится CPU/GPU) Видеопамять: 16 ГБ + ОЗУ: 64 ГБ
Скорость обработки (токен/с) ~45-55 (через MLX) ~65-75 (через llama.cpp CUDA)
Потребление энергии 35 Вт под нагрузкой 285 Вт (только видеокарта)
Уровень шума Практически бесшумно Вентиляторы на 45 дБ

Видите главное отличие? Mac выигрывает в энергоэффективности и тишине. PC - в абсолютной скорости и возможности апгрейда. Но для документов скорость генерации - не главное. Важнее загрузить модель с контекстом 128K токенов и быстро искать по нему. Здесь единая память Apple - преимущество.

💡
Если вы обрабатываете длинные PDF на 100+ страниц, контекстное окно важнее скорости генерации. Модель в 8B параметров с контекстом 128K (как Qwen 3.1 8B) на Mac M5 будет работать стабильнее, чем на PC с 16 ГБ VRAM, где часть контекста уйдет в медленную RAM.

Конкретные сборки: что покупать в 2026 году

1 Вариант для Mac: Максимум портативности

MacBook Pro 16" с чипом M5 (38-core GPU), 36 ГБ единой памяти, 1 ТБ SSD. Стоимость: ~$3499. Почему не 48 ГБ? Выход за бюджет. Почему не Mac Studio? Если нужна только стационарная работа - Studio с M5 Max и 64 ГБ памяти за $3999 будет лучше.

  • Плюсы: Работа от батареи 8+ часов, тишина, готовность "из коробки".
  • Минусы: Нет апгрейда, ремонт только у Apple.
  • Для чего подходит: Юристы, консультанты, кто работает с клиентами вне офиса.

Установка простая: качаете Ollama или используете MLX напрямую. Модель Qwen 3.1 8B загружается одной командой.

ollama run qwen2.5:8b  # На 2026 год актуальна Qwen 3.1, но в Ollama может быть как qwen3.1:8b

2 Вариант для PC: Максимум производительности за деньги

Здесь нужно собрать систему с нуля. Бюджет $2200-2500 позволяет взять:

  • Процессор: AMD Ryzen 7 8700G (APU с мощным iGPU для резерва) - $329
  • Материнская плата: ASUS TUF GAMING B650-PLUS - $189
  • Видеокарта: NVIDIA GeForce RTX 4070 Ti Super 16GB - $899
  • Оперативная память: 2x32GB DDR5-6000 CL30 - $249
  • SSD: 2TB NVMe PCIe 4.0 - $149
  • Блок питания: 850W 80+ Gold - $129
  • Корпус с шумоизоляцией: Fractal Design Define 7 - $179

Итого: ~$2123. Остальное на монитор и периферию. Почему не RTX 4080 Super? Она стоит $1200+ и выходит за бюджет. 16 ГБ VRAM хватит для 8B модели с контекстом 32K-64K. Для 128K уже будет подкачка в RAM, но через llama.cpp с CUDA все равно быстро.

Не экономьте на блоке питания и корпусе. LLM нагрузка длительная, компоненты греются. Дешевый БП сгорит через полгода. Корпус без вентиляции заставит вентиляторы выть как сирены.

Пошаговая настройка: от железа до работающего ассистента

1 Шаг 1: Выбор и установка фреймворка

На PC: llama.cpp с поддержкой CUDA для NVIDIA или Ollama. На Mac: Ollama или родной MLX (но он требует больше ручной работы).

# Для PC с NVIDIA
curl -fsSL https://ollama.com/install.sh | sh
# Запускаем модель с указанием слоев на GPU
ollama run qwen3.1:8b --num-gpu-layers 40

2 Шаг 2: Интеграция с документами

Голый Ollama - только чат. Для работы с PDF, DOCX нужна надстройка. Используйте локальный RAG-пайплайн. Простой вариант - Text Generation WebUI с расширением для документов.

Или свяжите Ollama с Obsidian для управления знаниями. Это превратит ваш ПК в аналог Google NotebookLM, но без облака.

3 Шаг 3: Настройка безопасности

Локально - не значит безопасно автоматически. Отключите интернет у системы при работе с документами (физический разрыв или firewall). Используйте полное шифрование диска. Настройте регулярное обновление модели без подключения к интернету (скачивайте через отдельную машину).

Ошибки, которые все совершают (и как их избежать)

Ошибка Последствия Как исправить
Купить видеокарту с 8 ГБ VRAM Модель 8B параметров загрузится, но контекст будет ограничен 4K токенами. Длинные документы не обработать. Минимум 16 ГБ VRAM для 8B моделей. Или использовать CPU+RAM на Mac.
Игнорировать охлаждение Троттлинг через 15 минут работы. Скорость падает в 2-3 раза. Корпус с вентиляцией, качественные кулеры, мониторинг температур.
Скачивать модели с непроверенных источников Вес модели может содержать малварь или бэкдоры. Только официальные репозитории: Hugging Face, официальные страницы моделей.
Не настраивать контекстное окно Модель "забывает" начало документа. В llama.cpp используйте флаг -c 131072 для 128K контекста. Проверьте, поддерживает ли модель.

FAQ: Краткие ответы на главные вопросы

Какая модель лучше всего для документов в 2026 году?

Qwen 3.1 8B (или 14B, если хватит памяти). У нее контекст 128K, хорошее понимание структуры документов, поддержка русского. Альтернатива - Mistral NeMo 12B, но она требовательнее к ресурсам.

Можно ли использовать эту систему для транскрипции совещаний?

Да, но нужна отдельная модель для ASR (автоматического распознавания речи). Посмотрите гайд по Meeting-LLM.

Что делать, если нужна обработка на нескольких компьютерах?

Используйте Temple Bridge для синхронизации контекста между устройствами без облака.

И последнее: не гонитесь за 70B моделями. Для 99% задач с документами хватит 8B-14B параметров. Лучше потратьте сэкономленные деньги на быстрый SSD и дополнительную RAM. Скорость загрузки документов в контекст важнее, чем красноречивость ответов.