Детектор AI-контента на Android: ViT + ONNX Runtime в фоне | AiManual
AiManual Logo Ai / Manual.
25 Мар 2026 Инструмент

Детектор AI-контента на Android: как запустить оптимизированную ViT модель через ONNX Runtime в фоне

Локальный детектор AI-генеративных изображений на Android с Vision Transformer и ONNX Runtime. Работает в фоне через Quick Tile. Обзор технологии и примеры испо

AI-контент 2026: когда каждый второй скриншот - генеративный

Вы только что увидели фото Нью-Йорка под водой. Реалистичное до мурашек. Это климатический активизм или Midjourney 7? В 2026 году отличить почти невозможно. Но есть способ - и он у вас в кармане.

Новое приложение для Android запускает оптимизированную Vision Transformer модель через ONNX Runtime прямо на устройстве. Никаких облаков, никакой отправки данных. Просто быстрая детекция AI-контента в фоне.

Vision Transformer: не просто для классификации котиков

Изначально ViT создавали для распознавания изображений. Но в 2024 году исследователи адаптировали архитектуру для детекции AI-генеративных артефактов. Модель научилась замечать микро-паттерны, которые оставляют генеративные сети - как отпечатки пальцев.

В этом детекторе используется ViT-Large, квантованная до 8-бит. Это не та гигантская модель, которая требует сервер; здесь всего 50 миллионов параметров. Достаточно для точности в 94% на датасете Real vs AI-2025, но достаточно компактно для телефона.

💡
Квантование - не компромисс, а необходимость для мобильного AI. Как говорится в статье "Эволюция AI через ограничения", это будущее on-device инференса.

ONNX Runtime: секрет кроссплатформенной магии

Модель обучена в PyTorch, но для Android её конвертируют в ONNX - открытый формат для обмена моделями. ONNX Runtime 2.5 (актуальная на март 2026) обеспечивает выполнение на CPU, GPU или NPU с автоматической оптимизацией.

Почему ONNX, а не TensorFlow Lite? В 2026 году ONNX Runtime стал де-факто стандартом для продвинутого инференса на мобильных. Он поддерживает больше операторов, быстрее обновляется и, что важно, работает одинаково хорошо на Android и iOS. Для сравнения с TensorRT, смотрите "Табличные модели на C++: ONNX Runtime против TensorRT".

Внимание: ONNX - не серебряная пуля. Если модель использует кастомные операторы, конвертация может быть болезненной. Но для стандартных ViT слоев проблем нет.

Android Quick Tile: детекция без открытия приложения

Самая крутая фича - интеграция с Quick Tile (панель быстрых настроек Android). Добавляете плитку, и когда видите подозрительное изображение в любой галерее или браузере, тапаете на неё. Приложение в фоне делает скриншот, запускает модель и показывает результат в уведомлении.

Это работает через службу Accessibility? Нет, хакерства нет. Используется официальный API MediaProjection для скриншотов и сервис для фоновой обработки. Приложение запрашивает разрешение один раз, и потом всё автоматически.

Примеры использования: от соцсетей до новостных редакций

  • Проверка виральных постов: Видите фото взрыва на Марсе? Быстрая проверка через Quick Tile скажет, AI это или нет.
  • Для журналистов: Интеграция с приложениями для редактирования. Автоматическая пометка изображений перед публикацией.
  • Родительский контроль: Дети присылают мемы? Проверить, не сгенерированы ли они нейросетью с неприемлемым содержанием.

А как же альтернативы? Облака vs локальный inference

Да, есть облачные API от OpenAI, Google и других. Они точнее? Возможно. Но они отправляют ваши изображения на чужие серверы. И стоят денег. И требуют интернет.

Локальные решения: TensorFlow Lite, PyTorch Mobile, Mirai. Mirai - новый фреймворк, оптимизированный для мобильных, но он молодой. ONNX Runtime более зрелый и поддерживает больше моделей.

Для сложных моделей, как в KernelAI, ONNX Runtime тоже подходит. Но здесь фокус на одной задаче - детекции AI-контента.

Кому это нужно? (Спойлер: почти всем)

Если вы работаете с контентом - журналист, модератор, маркетолог - этот инструмент сэкономит вам время на факт-чекинг. Если вы просто пользователь, который устал от фейков - поможет быстро проверять сомнительные изображения.

И да, для параноиков, которые не хотят отправлять данные в облако, это идеально. Полная приватность. Как в статье "Ваш смартфон теперь AI-сервер", но для детекции.

Приложение бесплатное и с открытым исходным кодом. Разработчик зарабатывает на донатах и премиум-функциях (например, батч-обработка галереи).

Под капотом: технические детали для разработчиков

Модель: ViT-Large-patch16-224, дообученная на датасете из 1 миллиона реальных и AI-генеративных изображений. Используется бинарная классификация с выходом "вероятность AI".

Инференс занимает 300-500 мс на Snapdragon 8 Gen 3 (2025). На старых процессорах до 2 секунд. Оптимизация через ONNX Runtime включает использование INT8 квантования и графовые оптимизации.

Код написан на Kotlin с нативным C++ слоем для ONNX Runtime. Репозиторий на GitHub включает скрипты для обучения и конвертации модели.

Что в будущем? Детекция видео и звука

Разработчик планирует добавить детекцию AI-генеративного видео (на основе фреймов) и аудио. Но для этого нужны более сложные модели, возможно, трансформеры для временных рядов.

А пока - это один из самых удобных способов проверить изображение на AI. Быстро, локально, приватно.

Скачать можно в Google Play. Или собрать из исходников, если не доверяете магазинам. (Ссылка: AIDetector)

Подписаться на канал