Эксперимент с отмороженными руками
В конце января 2026 года на Камчатку обрушился снегопад, который местные жители окрестили "арктическим апокалипсисом". Сугробы под два метра, парализованный Петропавловск-Камчатский, школы и детсады закрыты на неделю. Идеальный материал для новостей.
Пока журналисты собирали рюкзаки и летели в зону ЧС, я решил провести чистый эксперимент. Генерирую AI-репортаж с помощью Sora 2.0 (вышедшей в декабре 2025) и Midjourney v7. Параллельно - отправляю оператора с камерой в эпицентр событий.
Что получилось у нейросетей
Промпт для Sora 2.0 звучал так: "Кинематографическое видео снегопада на Камчатке, высота сугробов 2 метра, люди копают машины, драматичное освещение, стиль документального репортажа". Результат - 1:47 видео с безупречной картинкой. Снег падает реалистично, тени от фонарей играют на лицах, даже дыхание видно на морозе.
Midjourney v7 сгенерировала три кадра: общий план заснеженного города, крупный план замерзшего человека и панораму гор в снегу. Качество - уровень National Geographic.
Заголовок AI-новости: "Арктический шторм на Камчатке: экстремальный снегопад парализовал регион". Текст написал GPT-5 Turbo (последняя версия на февраль 2026). Статья содержала все элементы классического репортажа: цифры, цитаты "местных жителей", прогноз погоды от Нейрометеума Яндекса, даже рекомендации МЧС.
Проблема номер один: нейросеть не знала, что в Петропавловске-Камчатском нет пятиэтажек, которые она нагенерировала. Проблема номер два: "местные жители" в кадрах выглядели как кавказцы, а не камчадалы. Проблема номер три: снег был слишком идеальным - ни одной проталинки, ни одного следа техники.
Что сняли люди
Оператор привез 47 минут сырья. Камера трясется от ветра, периодически запотевает объектив, в кадр попадают случайные прохожие. Звук - сплошной вой вьюги и матерные комментарии водителей, застрявших в сугробах.
Самый сильный кадр: пожилая женщина пытается выкопать свою "десятку" детской лопаткой. Снег ей по пояс. Она плачет, но не от отчаяния - от смеха. "За 70 лет жизни на Камчатке такого не было!", - кричит она в камеру.
Монтаж занял 6 часов. Итоговое видео - 3:22. Никакой идеальной картинки, зато есть запах подлинности. Когда смотришь, чувствуешь холод и безнадегу.
Цифры, которые заставят пересмотреть бюджет на AI
Оба материала опубликовали одновременно в трех местах: YouTube, Дзен и Telegram-канал "Экстренные новости". Вот что показала статистика за первые 72 часа (данные на 10 февраля 2026):
| Метрика | AI-репортаж | Реальный репортаж | Разница |
|---|---|---|---|
| Просмотры (YouTube) | 12 847 | 134 892 | ×10.5 |
| Лайки | 312 | 8 742 | ×28 |
| Комментарии | 47 | 1 894 | ×40 |
| Среднее время просмотра | 0:47 | 2:18 | ×2.9 |
| Репосты (Telegram) | 89 | 2 347 | ×26 |
Реальный репортаж выиграл по всем параметрам. Причем не на проценты - в разы. Особенно показательна разница в комментариях: под AI-видео люди в основном спорили, настоящее оно или сгенерированное. Под реальным - делились своими историями про снегопады, советовали друг другу, как откапывать машины, даже организовали сбор помощи для самых пострадавших.
Почему так получилось? Пять причин провала AI
- Отсутствие хаоса. Нейросети генерируют идеальную картинку. Настоящая жизнь - грязная, неудобная, с браком. Люди чувствуют фальшь в стерильности.
- Нет случайностей. В реальном видео в кадр внезапно забежала собака, которая радостно ныряла в сугробы. Это стало мемом. AI не генерирует такие спонтанные радости.
- Эмоциональный разрыв. Сгенерированная женщина, копающая машину, выглядела страдающей правильно. Настоящая бабушка смеялась сквозь слезы. Разница между "изображать эмоции" и "испытывать эмоции".
- Контекстуальная слепота. AI не знает локальных особенностей. Все камчатские в комментариях сразу заметили "неправильные" дома и "не тех" людей. Как в том исследовании про Model Collapse - нейросеть начинает воспроизводить усредненные стереотипы.
- Аудитория устала от идеального. После 2024 года, когда AI-контент заполонил все, люди начали ценить шероховатости. Следующая статья про Human-first против AI-first стратегии как раз об этом.
Но AI не стоит списывать со счетов
Парадокс: AI-репортаж собрал в 10 раз меньше просмотров, но... его производство заняло 17 минут против 8 часов у реального. Себестоимость - $0.84 (электричество для генерации) против $2 300 (билеты, проживание, работа оператора).
Для новостных агрегаторов, которым нужно заполнить ленту, AI-контент - спасение. Особенно когда событие происходит где-то в глуши, куда не пошлешь съемочную группу. Вот где пригодятся технологии вроде AlphaEarth Foundations, анализирующие спутниковые снимки.
Курсы вроде AI-креатор: создаём контент с помощью нейросетей теперь учат не просто генерировать контент, а комбинировать AI с реальными съемками. Добавлять в идеальные картинки "грязь" и "случайности".
Что делать контент-маркетологам в 2026?
Первый вывод: не пытайтесь выдать AI-контент за реальный. Аудитория стала слишком подкованной. Статья Как отличить AI-текст набирает миллионы просмотров не просто так.
Второй: используйте AI там, где он силен. Для быстрого создания иллюстраций, когда нет бюджета на фотографа. Для генерации идей и раскадровок. Для автоматизации рутины вроде субтитров или цветокоррекции.
Третий: самое ценное в 2026 - гибридный подход. Возьмите реальные съемки с Камчатки, добавьте AI-графику с инфографикой снегопада (например, используя данные из WeatherNext 2 от DeepMind), смонтируйте в человеческом стиле.
Четвертый: если нет возможности снять реальный контент - честно говорите об этом. "Это видео сгенерировано нейросетью, потому что наши операторы физически не могли добраться до места". Честность теперь конвертируется в лояльность.
А что насчет других форматов?
Эксперимент с Камчаткой - про видео. С текстами ситуация сложнее. GPT-5 Turbo пишет на уровне среднего журналиста. Но у него та же проблема: идеальная стерильность.
Интересный тренд 2026 года: AI-тексты начинают специально "ломать", добавляя орфографические ошибки, разговорные конструкции, даже небольшой мат. Чтобы было похоже на живого человека. Звучит как абсурд, но работает.
В нишевых темах, где важна точность данных (как в FarmVibes.AI для агрономов), AI выигрывает у человека. Потому что может обработать терабайты данных за минуты.
Но в эмоциональных, человеческих историях - про снегопады, про поиск пропавших (как в проекте AI и дроны в «ЛизаАлерт»), про личные драмы - машина всегда будет проигрывать. Потому что не может чувствовать.
Прогноз на 2027: разделение контент-рынка
К концу 2026 года сформируются два четких сегмента:
- AI-массовка. Дешевый, быстрый контент для заполнения лент. Просмотры - низкие, вовлеченность - минимальная, но себестоимость - копейки. Подойдет для новостных агрегаторов, SEO-сайтов, информационных порталов.
- Human-премиум. Дорогой, медленный, с душой. То, что мы видели в камчатском репортаже. Высокие просмотры, виральность, лояльная аудитория. Для брендов, медиа, anyone, кто хочет строить долгосрочные отношения.
Самые успешные проекты будут использовать оба подхода одновременно. AI - для масштабирования, человек - для создания эмоциональных якорей.
Мой совет тем, кто планирует инвестировать в контент в 2026: прежде чем закупать лицензии на Sora 3.0 или следующий GPT, посчитайте, что выгоднее - 100 AI-статей с вовлеченностью 0.2% или одна человеческая история с вовлеченностью 8%.
Иногда один смех сквозь слезы на фоне двухметрового сугроба стоит всех нейросетей мира. Проверено на Камчатке.