DHS и AI-видео: Veo 3 и Firefly для пропаганды в 2026 году | AiManual
AiManual Logo Ai / Manual.
29 Янв 2026 Новости

Государство в роли режиссера: как DHS использует Google Veo 3 и Adobe Firefly для пропаганды

Разбор кейса: как Министерство внутренней безопасности США использует Google Veo 3.1 и Adobe Firefly для создания пропагандистских видео. Факты, этика, технолог

Промпт вместо сценариста: DHS нашел новый инструмент

Документы, просочившиеся на прошлой неделе, рисуют странную картину. В одном из подразделений Министерства внутренней безопасности США (DHS) кто-то ввел в Google Veo 3.1 текст: "Кадры счастливых семей мигрантов, получающих помощь на границе. Солнечный день, улыбки, дети играют. Кинематографичное, 4K". Через 90 секунд AI выдал 30-секундный ролик. Почти идеальный.

Это не единичный случай. За последние три месяца, по данным внутренних отчетов на январь 2026 года, DHS создал более 200 AI-видео с помощью Veo 3.1 и Adobe Firefly Video (последней версии на начало года). Цель? Формирование общественного мнения. Или, если называть вещи своими именами, пропаганда.

Важно: DHS официально не отрицает использование AI-генераторов. В заявлении для прессы говорится о "инновационных инструментах коммуникации в цифровую эпоху". Этика такого подхода вызывает вопросы у экспертов по AI и правозащитников.

Veo 3.1: не для рекламы котят

Почему именно Veo 3.1? Последняя версия Google, выпущенная в ноябре 2025 года, научилась не просто генерировать движущиеся картинки. Она понимает контекст. Социальный, политический, эмоциональный.

Технология "Ingredients to Video", о которой мы писали в полном гайде, позволяет загрузить фото реального места (скажем, участка границы) и "оживить" его, добавив нужных персонажей и действия. DHS использовал это. Брали стоковые фото инфраструктуры, а Veo 3.1 населял их "идеальными" мигрантами, доброжелательными офицерами, аккуратными палатками.

Консистентность персонажей, главный козырь Veo 3.1, здесь работала на 100%. Один и тот же "счастливый ребенок" мог появляться в разных роликах, создавая эффект узнаваемости, почти как у актера в сериале. Только этот актер не существовал.

Adobe Firefly: полировка реальности

Veo генерировал сырой материал. Дальше в дело вступал Adobe Firefly Video (текущая версия на платформе Creative Cloud). Его использовали для тонкой настройки.

  • Коррекция эмоций: Меняли микро-выражения лиц. Легкая грусть на лице офицера - заменяли на нейтральную уверенность.
  • Стилизация под документалистику: Добавляли эффект "дрожащей камеры", зернистость, чтобы видео выглядело как снятое на телефон очевидцем.
  • Генерация фонов: Если на реальных кадрах был мусор или хаос, Firefly дорисовывал чистые улицы и ухоженные газоны.

Получался гибрид. Технологически продвинутый, этически сомнительный. "Это уже не информирование. Это конструирование альтернативной реальности с помощью state-of-the-art инструментов", - комментирует эксперт по цифровой этике из Стэнфорда.

Как они это обнаружили? Следы в метаданных

Утечка стала возможной благодаря двум факторам. Первый - человеческий. Сотрудник, участвовавший в проекте, усомнился в его этичности. Второй - технологический.

Несмотря на все усилия, AI-генераторы оставляют цифровые отпечатки. Артефакты в движении теней, неестественная физика тканей, микроповторы в текстурах. Новые инструменты детекции, вроде того, что встроен в Gemini, научились их ловить. Анализ метаданных файлов, отправляемых на внутренние серверы DHS, показал использование специфичных API-запросов к платформам Google и Adobe.

💡
Проверить происхождение видео сегодня может каждый. В Gemini-приложении есть функция анализа. Подробности - в нашем материале "Как проверить, сделано ли видео в ИИ".

Почему это проблема? Масштабирование лжи

Раньше для пропаганды нужна была киностудия, актеры, монтажеры. Дорого, долго, заметно. Теперь нужен ноутбук, подписка на облачные сервисы и один оператор, знающий промпт-инжиниринг.

Скорость - убийственный аргумент. Пока журналисты верифицируют одно реальное событие, DHS может сгенерировать десяток "альтернативных" версий. И распространить их через подконтрольные каналы. Или даже через легитимные медиа, которые не успеют проверить контент.

Это не гипотетическая угроза. В 2025 году случай с DoorDash показал, как один человек может системно генерировать фальшивые доказательства. Государственный аппарат с бюджетом делает то же самое, но с политическими целями.

Что дальше? Гонка вооружений уже началась

Ответ технологических компаний пока слаб. Илон Маск пытается ставить штампы на контент в X, но это легко обходится. Google и Adobe внедряют водяные знаки и системы отслеживания происхождения контента (Content Credentials). Но для государственных структур, имеющих доступ к корпоративным версиям API, эти ограничения часто - просто галочка в настройках.

Пока Sora от OpenAI и Veo 3.1 от Google состязаются в качестве видео, их технологии используются не для развлечения. А для управления восприятием.

Единственный работающий барьер сегодня - публичное давление. Как только подобные кейсы оказываются в прессе, компании вынуждены ужесточать политики использования. Но это игра в кошки-мышки. DHS найдет другие инструменты. Или создаст свои.

Совет? Не верьте видео, которое слишком идеально передает чью-то политическую повестку. Особенно если оно вызывает у вас эмоции. Скорее всего, эти эмоции тоже были частью промпта.