Промпт вместо сценариста: DHS нашел новый инструмент
Документы, просочившиеся на прошлой неделе, рисуют странную картину. В одном из подразделений Министерства внутренней безопасности США (DHS) кто-то ввел в Google Veo 3.1 текст: "Кадры счастливых семей мигрантов, получающих помощь на границе. Солнечный день, улыбки, дети играют. Кинематографичное, 4K". Через 90 секунд AI выдал 30-секундный ролик. Почти идеальный.
Это не единичный случай. За последние три месяца, по данным внутренних отчетов на январь 2026 года, DHS создал более 200 AI-видео с помощью Veo 3.1 и Adobe Firefly Video (последней версии на начало года). Цель? Формирование общественного мнения. Или, если называть вещи своими именами, пропаганда.
Важно: DHS официально не отрицает использование AI-генераторов. В заявлении для прессы говорится о "инновационных инструментах коммуникации в цифровую эпоху". Этика такого подхода вызывает вопросы у экспертов по AI и правозащитников.
Veo 3.1: не для рекламы котят
Почему именно Veo 3.1? Последняя версия Google, выпущенная в ноябре 2025 года, научилась не просто генерировать движущиеся картинки. Она понимает контекст. Социальный, политический, эмоциональный.
Технология "Ingredients to Video", о которой мы писали в полном гайде, позволяет загрузить фото реального места (скажем, участка границы) и "оживить" его, добавив нужных персонажей и действия. DHS использовал это. Брали стоковые фото инфраструктуры, а Veo 3.1 населял их "идеальными" мигрантами, доброжелательными офицерами, аккуратными палатками.
Консистентность персонажей, главный козырь Veo 3.1, здесь работала на 100%. Один и тот же "счастливый ребенок" мог появляться в разных роликах, создавая эффект узнаваемости, почти как у актера в сериале. Только этот актер не существовал.
Adobe Firefly: полировка реальности
Veo генерировал сырой материал. Дальше в дело вступал Adobe Firefly Video (текущая версия на платформе Creative Cloud). Его использовали для тонкой настройки.
- Коррекция эмоций: Меняли микро-выражения лиц. Легкая грусть на лице офицера - заменяли на нейтральную уверенность.
- Стилизация под документалистику: Добавляли эффект "дрожащей камеры", зернистость, чтобы видео выглядело как снятое на телефон очевидцем.
- Генерация фонов: Если на реальных кадрах был мусор или хаос, Firefly дорисовывал чистые улицы и ухоженные газоны.
Получался гибрид. Технологически продвинутый, этически сомнительный. "Это уже не информирование. Это конструирование альтернативной реальности с помощью state-of-the-art инструментов", - комментирует эксперт по цифровой этике из Стэнфорда.
Как они это обнаружили? Следы в метаданных
Утечка стала возможной благодаря двум факторам. Первый - человеческий. Сотрудник, участвовавший в проекте, усомнился в его этичности. Второй - технологический.
Несмотря на все усилия, AI-генераторы оставляют цифровые отпечатки. Артефакты в движении теней, неестественная физика тканей, микроповторы в текстурах. Новые инструменты детекции, вроде того, что встроен в Gemini, научились их ловить. Анализ метаданных файлов, отправляемых на внутренние серверы DHS, показал использование специфичных API-запросов к платформам Google и Adobe.
Почему это проблема? Масштабирование лжи
Раньше для пропаганды нужна была киностудия, актеры, монтажеры. Дорого, долго, заметно. Теперь нужен ноутбук, подписка на облачные сервисы и один оператор, знающий промпт-инжиниринг.
Скорость - убийственный аргумент. Пока журналисты верифицируют одно реальное событие, DHS может сгенерировать десяток "альтернативных" версий. И распространить их через подконтрольные каналы. Или даже через легитимные медиа, которые не успеют проверить контент.
Это не гипотетическая угроза. В 2025 году случай с DoorDash показал, как один человек может системно генерировать фальшивые доказательства. Государственный аппарат с бюджетом делает то же самое, но с политическими целями.
Что дальше? Гонка вооружений уже началась
Ответ технологических компаний пока слаб. Илон Маск пытается ставить штампы на контент в X, но это легко обходится. Google и Adobe внедряют водяные знаки и системы отслеживания происхождения контента (Content Credentials). Но для государственных структур, имеющих доступ к корпоративным версиям API, эти ограничения часто - просто галочка в настройках.
Пока Sora от OpenAI и Veo 3.1 от Google состязаются в качестве видео, их технологии используются не для развлечения. А для управления восприятием.
Единственный работающий барьер сегодня - публичное давление. Как только подобные кейсы оказываются в прессе, компании вынуждены ужесточать политики использования. Но это игра в кошки-мышки. DHS найдет другие инструменты. Или создаст свои.
Совет? Не верьте видео, которое слишком идеально передает чью-то политическую повестку. Особенно если оно вызывает у вас эмоции. Скорее всего, эти эмоции тоже были частью промпта.