AI-контент 2026: когда каждый второй скриншот - генеративный
Вы только что увидели фото Нью-Йорка под водой. Реалистичное до мурашек. Это климатический активизм или Midjourney 7? В 2026 году отличить почти невозможно. Но есть способ - и он у вас в кармане.
Новое приложение для Android запускает оптимизированную Vision Transformer модель через ONNX Runtime прямо на устройстве. Никаких облаков, никакой отправки данных. Просто быстрая детекция AI-контента в фоне.
Vision Transformer: не просто для классификации котиков
Изначально ViT создавали для распознавания изображений. Но в 2024 году исследователи адаптировали архитектуру для детекции AI-генеративных артефактов. Модель научилась замечать микро-паттерны, которые оставляют генеративные сети - как отпечатки пальцев.
В этом детекторе используется ViT-Large, квантованная до 8-бит. Это не та гигантская модель, которая требует сервер; здесь всего 50 миллионов параметров. Достаточно для точности в 94% на датасете Real vs AI-2025, но достаточно компактно для телефона.
ONNX Runtime: секрет кроссплатформенной магии
Модель обучена в PyTorch, но для Android её конвертируют в ONNX - открытый формат для обмена моделями. ONNX Runtime 2.5 (актуальная на март 2026) обеспечивает выполнение на CPU, GPU или NPU с автоматической оптимизацией.
Почему ONNX, а не TensorFlow Lite? В 2026 году ONNX Runtime стал де-факто стандартом для продвинутого инференса на мобильных. Он поддерживает больше операторов, быстрее обновляется и, что важно, работает одинаково хорошо на Android и iOS. Для сравнения с TensorRT, смотрите "Табличные модели на C++: ONNX Runtime против TensorRT".
Внимание: ONNX - не серебряная пуля. Если модель использует кастомные операторы, конвертация может быть болезненной. Но для стандартных ViT слоев проблем нет.
Android Quick Tile: детекция без открытия приложения
Самая крутая фича - интеграция с Quick Tile (панель быстрых настроек Android). Добавляете плитку, и когда видите подозрительное изображение в любой галерее или браузере, тапаете на неё. Приложение в фоне делает скриншот, запускает модель и показывает результат в уведомлении.
Это работает через службу Accessibility? Нет, хакерства нет. Используется официальный API MediaProjection для скриншотов и сервис для фоновой обработки. Приложение запрашивает разрешение один раз, и потом всё автоматически.
Примеры использования: от соцсетей до новостных редакций
- Проверка виральных постов: Видите фото взрыва на Марсе? Быстрая проверка через Quick Tile скажет, AI это или нет.
- Для журналистов: Интеграция с приложениями для редактирования. Автоматическая пометка изображений перед публикацией.
- Родительский контроль: Дети присылают мемы? Проверить, не сгенерированы ли они нейросетью с неприемлемым содержанием.
А как же альтернативы? Облака vs локальный inference
Да, есть облачные API от OpenAI, Google и других. Они точнее? Возможно. Но они отправляют ваши изображения на чужие серверы. И стоят денег. И требуют интернет.
Локальные решения: TensorFlow Lite, PyTorch Mobile, Mirai. Mirai - новый фреймворк, оптимизированный для мобильных, но он молодой. ONNX Runtime более зрелый и поддерживает больше моделей.
Для сложных моделей, как в KernelAI, ONNX Runtime тоже подходит. Но здесь фокус на одной задаче - детекции AI-контента.
Кому это нужно? (Спойлер: почти всем)
Если вы работаете с контентом - журналист, модератор, маркетолог - этот инструмент сэкономит вам время на факт-чекинг. Если вы просто пользователь, который устал от фейков - поможет быстро проверять сомнительные изображения.
И да, для параноиков, которые не хотят отправлять данные в облако, это идеально. Полная приватность. Как в статье "Ваш смартфон теперь AI-сервер", но для детекции.
Приложение бесплатное и с открытым исходным кодом. Разработчик зарабатывает на донатах и премиум-функциях (например, батч-обработка галереи).
Под капотом: технические детали для разработчиков
Модель: ViT-Large-patch16-224, дообученная на датасете из 1 миллиона реальных и AI-генеративных изображений. Используется бинарная классификация с выходом "вероятность AI".
Инференс занимает 300-500 мс на Snapdragon 8 Gen 3 (2025). На старых процессорах до 2 секунд. Оптимизация через ONNX Runtime включает использование INT8 квантования и графовые оптимизации.
Код написан на Kotlin с нативным C++ слоем для ONNX Runtime. Репозиторий на GitHub включает скрипты для обучения и конвертации модели.
Что в будущем? Детекция видео и звука
Разработчик планирует добавить детекцию AI-генеративного видео (на основе фреймов) и аудио. Но для этого нужны более сложные модели, возможно, трансформеры для временных рядов.
А пока - это один из самых удобных способов проверить изображение на AI. Быстро, локально, приватно.
Скачать можно в Google Play. Или собрать из исходников, если не доверяете магазинам. (Ссылка: AIDetector)