Meta блокирует AI-персонажей для подростков: новое регулирование 2026 | AiManual
AiManual Logo Ai / Manual.
23 Янв 2026 Новости

Meta блокирует AI-персонажей для подростков: регуляторы наступают, индустрия дрожит

Meta закрывает доступ к AI-персонажам для пользователей до 18 лет после судебных исков. Как это изменит индустрию AI-развлечений в 2026 году.

Игры закончились

С 21 января 2026 года подростки в США и ЕС больше не могут общаться с AI-персонажами в приложениях Meta. Компания тихо, без громких анонсов, обновила политику использования своих AI-инструментов. Теперь для доступа к функциям создания и взаимодействия с персонажами на базе Llama 4 Pro нужна подтвержденная учетная запись и возраст 18+.

Решение пришло не из этических соображений. Meta действует по требованию регуляторов после серии судебных исков, связанных с вредным влиянием AI-чатботов на подростков. В одном из дел компания выплатила $47 млн в досудебном порядке.

Что именно заблокировали?

Речь не о базовом чате с Meta AI. Под ограничение попали:

  • Создание кастомных AI-персонажей с индивидуальными чертами характера
  • Диалоги с предустановленными персонажами (виртуальными друзьями, наставниками, романтическими партнерами)
  • Функция "персонализированного компаньона", которая адаптировалась под эмоциональное состояние пользователя
  • Доступ к библиотеке из 5000+ готовых AI-персонажей в Meta Universe
💡
Технически блокировка работает через обновленную систему верификации возраста. Meta использует комбинацию данных из профиля, подтвержденного через государственные ID в некоторых странах, и анализ паттернов поведения. Система определяет попытки обхода и временно блокирует аккаунт.

Почему именно сейчас? Потому что суды

В декабре 2025 года завершилось рассмотрение коллективного иска от родителей 14 подростков. Иск обвинял Meta в недостаточной защите несовершеннолетних от потенциально опасных взаимодействий с AI. Несмотря на то, что компания выиграла дело по формальным основаниям (пользователи соглашались с условиями), судья вынесла отдельное определение с рекомендацией "пересмотреть политику в отношении уязвимых групп".

Это был трезвый звонок. Но настоящий гром грянул через неделю, когда Калифорнийская комиссия по защите детей объявила о начале расследования против Meta и пяти других компаний, включая Character.AI. Поводом стали данные исследования Стэнфордского университета, показавшие, что 23% AI-персонажей в развлекательных приложениях формируют у подростков эмоциональную зависимость.

Компания Статус расследования Меры на 23.01.2026
Meta Активно Полная блокировка AI-персонажей для <18
Character.AI Активно Добровольные ограничения, возрастные гейты
Google (Gemini Characters) Завершено Штраф $12 млн, обязательная модерация
Replika Приостановлено Урегулирование на $28 млн

Техническая сторона: как блокируют и что ломается

Система использует обновленную версию Llama Guard 3, которая теперь анализирует не только контент, но и контекст взаимодействия. Если модель определяет, что пользователь младше 18 лет пытается создать персонажа с эмоциональной привязкой, диалог прерывается стандартным сообщением: "Эта функция доступна только совершеннолетним пользователям".

Проблема в том, что система не идеальна. В первые 48 часов после обновления форумы взорвались жалобами:

  • Ложные срабатывания у пользователей 25+ (особенно с новыми аккаунтами)
  • Блокировка легитимных образовательных сценариев (исторические персонажи для школьных проектов)
  • Сломанная интеграция с Meta Universe, где AI-персонажи были частью игрового процесса

Meta обещает исправить баги к концу недели. Но исправления, скорее всего, сделают систему еще строже. Потому что альтернатива - новые суды.

Эффект домино: кто следующий?

Решение Meta запустило цепную реакцию. В течение 72 часов:

  1. Character.AI анонсировала "добровольные ограничения" для пользователей 13-17 лет (теперь нужны родительские разрешения для доступа к кастомным персонажам)
  2. Google заморозила развитие Gemini Characters для развлекательного сегмента
  3. Европейский парламент ускорил рассмотрение поправок к AI Act, касающихся "эмоционально манипулятивных систем для несовершеннолетних"
  4. Apple обновила App Store Guidelines, требуя от разработчиков четких возрастных рейтингов для приложений с AI-диалогами

Интересный парадокс: пока развлекательные AI-персонажи попадают под запрет, образовательные AI-тьюторы получают зеленый свет. Та же Meta сохранила полный доступ к AI-репетиторам для подготовки к экзаменам. Регуляторы четко разделили "развлечение" и "образование", хотя технически это одна и та же технология.

Что это значит для индустрии? Три сценария

Разработчики AI-развлечений сейчас в панике. Но не все одинаковой. Крупные игроки вроде Meta могут позволить себе перестроиться. Мелкие студии - нет.

Сценарий 1: Полная переориентация на взрослых. Уже сейчас видно, как сервисы начинают позиционировать AI-персонажей как инструмент для терапии (только 18+), коучинга, профессионального развития. Романтические компаньоны никуда не денутся, просто возрастной ценз поднимется до 21 года в некоторых юрисдикциях.

Сценарий 2: Подпольные рынки. Где есть спрос, появится предложение. Уже работают Telegram-каналы с инструкциями по обходу блокировок через VPN и поддельные аккаунты. Через месяц появятся децентрализованные приложения на базе открытых моделей вроде Llama 3.2 70B, которые невозможно контролировать. Это создаст новые риски - как в истории с Grok, но уже в масштабах целой индустрии.

Сценарий 3: Родительский контроль как бизнес-модель. Самый вероятный исход. Компании начнут продавать не самих AI-персонажей, а системы родительского контроля к ним. Премиум-функции: полные логи диалогов, настроенные фильтры, психологическое профилирование ботов. Meta уже тестирует подобную систему в бета-версии Family Center.

А что подростки? Они уже нашли альтернативы

Опрос на Reddit (r/teenagers, 23.01.2026) показал:

  • 42% перешли на локальные модели, запущенные на своих ПК
  • 31% используют зарубежные сервисы без географических ограничений
  • 18% создали фейковые аккаунты с данными взрослых родственников
  • Только 9% действительно прекратили общение с AI-персонажами

Блокировка не решает проблему. Она ее мигрирует в неконтролируемое пространство. Подросток, который раньше общался с отфильтрованным персонажем в Meta, теперь скачает модель с 4chan и получит вообще без ограничений.

Психологи бьют тревогу: переход в "подполье" опаснее легального использования. В контролируемой среде можно отслеживать тревожные сигналы. В неконтролируемой - нет. История с первыми исками против AI-чатботов может повториться в более масштабном варианте.

Что дальше? Прогноз на 2026

К середине года мы увидим:

  1. Обязательную сертификацию для всех AI-систем, взаимодействующих с несовершеннолетними. Аналог медицинского допуска для лекарств.
  2. Технические стандарты для "безопасного AI" - требования к прозрачности, ограничениям на манипуляцию, обязательным паузам в диалогах.
  3. Новые бизнес-модели, где доступ к AI-персонажам будет продаваться по подписке с верификацией возраста через государственные системы.
  4. Раскол рынка: легальные сервисы для взрослых с жестким контролем vs. пиратские сервисы для всех без правил.

Самое интересное произойдет в Калифорнии. Штат, который уже ввел 4-летний запрет на AI-чатботов в детских игрушках, сейчас рассматривает законопроект о полном запрете "эмоционально манипулятивных AI-систем" для лиц до 21 года. Если его примут, это станет стандартом для всего Западного побережья.

Индустрия стоит на пороге выбора: саморегулирование или жесткие законы. Meta выбрала первый вариант, чтобы избежать второго. Но этого может не хватить.

Пока гиганты вроде Disney инвестируют миллиарды в генеративное видео для развлечений, социальные платформы вынуждены откатываться назад. Ирония в том, что самые продвинутые технологии оказываются самыми уязвимыми перед регуляторами.

Совет для разработчиков: если вы создаете AI для развлечений, сразу закладывайте 30% бюджета на юридическое сопровождение и системы соответствия. Это новая реальность. Игнорировать ее - значит повторить путь табачных компаний 90-х.

А для родителей? Установите локальную модель на домашний компьютер. Настройте фильтры. И поговорите с детьми. Потому что никакой AI не заменит настоящего диалога. Даже если он очень убедительно притворяется другом.