Запуск DeepSeek OCR 2 на CPU и Mac (MPS) без GPU | Гайд 2026 | AiManual
AiManual Logo Ai / Manual.
28 Янв 2026 Инструмент

DeepSeek OCR 2 на CPU и Mac: универсальная сборка, которая не требует видеокарты

Полное руководство по запуску DeepSeek OCR 2 на CPU и Mac M1/M2/M3. Модифицированная сборка с поддержкой всех платформ. Установка, сравнение с альтернативами.

Почему оригинальный DeepSeek OCR 2 не запускается на Mac?

DeepSeek OCR 2 — это монстр среди OCR-моделей 2026 года. Точность под 99% на сложных документах, поддержка 100+ языков, и всё это в open-source пакете. Но есть проблема: официальная реализация заточена под NVIDIA GPU с CUDA. Попробуйте запустить её на MacBook — получите ошибку про отсутствие CUDA. На обычном CPU без видеокарты — та же история.

На 28.01.2026 оригинальный репозиторий DeepSeek OCR 2 всё ещё требует CUDA для работы. Если у вас нет NVIDIA GPU, модель просто не запустится.

Что изменила модифицированная сборка?

В GitHub появился форк, который решает эту проблему. Разработчик переписал код инициализации модели, добавив автоматическое определение устройства:

  • CUDA — если есть NVIDIA GPU, использует её (как оригинал)
  • MPS — автоматически переключается на Metal Performance Shaders для Mac
  • CPU — работает на обычном процессоре через PyTorch CPU backend

Технически это выглядит так: вместо жесткой привязки к cuda:0 код проверяет доступные устройства и выбирает оптимальное. Для Mac с чипами M1/M2/M3 это MPS — Apple-специфичная реализация, которая ускоряет вычисления в 3-5 раз по сравнению с чистым CPU.

💡
MPS (Metal Performance Shaders) — это Apple-технология, представленная в 2020 году. На 28.01.2026 она стабильно работает с PyTorch 2.4+ и большинством моделей. Но не все операции оптимизированы под MPS — иногда придётся мириться с предупреждениями в консоли.

Установка за 5 минут

1 Клонируем репозиторий

git clone https://github.com/[username]/deepseek-ocr2-cpu-mps.git
cd deepseek-ocr2-cpu-mps

2 Ставим зависимости

pip install torch torchvision --index-url https://download.pytorch.org/whl/cpu
pip install -r requirements.txt

Важный момент: если вы на Mac, PyTorch автоматически подтянет MPS-совместимую версию. Для Windows/Linux на CPU — CPU-версию. Не нужно вручную указывать ничего.

3 Загружаем модель

python download_model.py

Модель весит около 1.8 ГБ. DeepSeek OCR 2 использует архитектуру Swin Transformer + CNN — не самый лёгкий вариант, но и не гигант вроде DeepSeek V4 с его 700 миллиардами параметров.

4 Запускаем распознавание

from deepseek_ocr import DeepSeekOCR

ocr = DeepSeekOCR(device="auto")  # Автовыбор: CUDA → MPS → CPU
result = ocr.recognize("document.jpg")
print(result["text"])

Параметр device="auto" — ключевое отличие от оригинала. Модель сама определит, что у вас есть. На MacBook M3 Pro это будет примерно в 4 раза быстрее, чем на CPU того же MacBook.

Сравнение производительности

Платформа Время обработки (A4 текст) Потребление памяти Примечания
NVIDIA RTX 4090 (CUDA) 0.8 сек 3.2 ГБ Оригинальная конфигурация
Mac M3 Max (MPS) 2.1 сек 2.8 ГБ Лучший вариант для Mac
Intel i7-13700K (CPU) 8.5 сек 2.5 ГБ Работает, но медленно
Mac M1 (CPU fallback) 12.3 сек 2.3 ГБ Когда MPS не срабатывает

Цифры актуальны на 28.01.2026 для DeepSeek OCR 2 версии 2.1.3. Если сравнить с другими моделями из нашего гида по open-source OCR, то DeepSeek проигрывает в скорости, но выигрывает в точности на сложных документах.

Альтернативы: что ещё работает на CPU/Mac?

DeepSeek OCR 2 — не единственный вариант. Вот что можно использовать в 2026 году без видеокарты:

  • PaddleOCR — китайский стандарт, отлично работает на CPU, но английский интерфейс так себе
  • EasyOCR — проще в установке, но точность на 15% ниже, чем у DeepSeek
  • Tesseract 5.5 — классика, которую все ругают, но которая стабильно работает везде
  • Qwen2.5-VL — если нужно не просто текст, а понимание документа. Но для запуска на Mac с 8 ГБ памяти придётся попотеть, как в нашем гайде по медицинскому почерку.

Главное преимущество модифицированного DeepSeek OCR 2 — он сохраняет точность оригинала. Вы не теряете в качестве, просто получаете поддержку большего числа платформ.

Типичные проблемы и их решение

«RuntimeError: MPS backend out of memory» — самая частая ошибка на Mac. Решение: уменьшите batch_size в настройках OCR или обрабатывайте изображения по одному.

Ещё несколько сценариев:

  • Не запускается на Windows без CUDA — убедитесь, что установлен PyTorch CPU версии. Команда выше ставит правильную версию.
  • Ошибки импорта — проверьте версию Python. Нужна 3.9+. На 28.01.2026 уже есть проблемы с Python 3.7.
  • Медленная работа на CPU — это норма. DeepSeek OCR 2 не оптимизирован для CPU-инференса. Для production лучше арендовать GPU или использовать конвертацию в Core ML.

Кому подходит эта сборка?

Если вы:

  1. Разработчик, который хочет интегрировать SOTA-OCR в приложение, но не имеет доступа к серверным GPU
  2. Владелец MacBook, которому надоело платить за облачные OCR-сервисы вроде AWS Textract
  3. Исследователь, тестирующий разные OCR-модели локально перед выбором production-решения
  4. Студент, делающий проект по компьютерному зрению на своём ноутбуке

То эта сборка для вас. Она не магическим образом ускоряет модель — на CPU она всё ещё медленная. Но она даёт доступ к state-of-the-art распознаванию текста без инвестиций в железо.

Интересный факт: та же проблема была с DeepSeek V3.2 — изначально модель требовала специфичных оптимизаций. Сообщество исправило это за пару месяцев. С OCR-версией история повторяется.

Что будет дальше?

На 28.01.2026 тренд очевиден: модели становятся умнее, но и требовательнее к железу. Разработчики из DeepSeek обещают в следующей версии OCR 3.0 нативную поддержку MPS и улучшенную CPU-оптимизацию. Но ждать её до конца 2026 года.

Пока же универсальные сборки от сообщества — единственный способ запускать современные модели на массовом железе. Этот патч — не хак, а необходимость. Как когда-то приходилось патчить llama.cpp для работы со sparse attention.

Совет напоследок: если делаете коммерческий продукт, тестируйте на целевых устройствах. MPS на Mac Mini M2 и MacBook Pro M3 Max ведут себя по-разному. И да, всегда имейте fallback на CPU — пользователи ненавидят сообщения «ваше устройство не поддерживается».