Законодательная ловушка: когда регулируют код вместо поведения
Калифорния пытается сделать то, что Европа уже провалила. Сенатский законопроект SB 942, представленный в январе 2026 года, предлагает лицензировать разработчиков крупных AI-моделей. Звучит разумно? Только если не понимаешь, как работает современный AI.
Проблема в том, что модель - это просто набор чисел. Триллионы параметров в файле. Сама по себе она не опаснее таблицы умножения. Опасность появляется в момент применения: когда кто-то использует GPT-5.2 для создания фишинговых писем или Grok 3.0 для генерации фейковых новостей.
Регуляторы до сих пор думают об AI как о промышленном станке. Если станок опасен, его сертифицируют. Но AI - это скорее молоток. Молотком можно построить дом или разбить череп. Вина не в молотке.
Европейский провал как предупреждение
ЕС принял AI Act в 2024 году. Сейчас, в 2026-м, результаты удручают. Крупные компании просто перенесли разработку в страны с мягким регулированием. OpenAI выпустила GPT-5.2 через дочернюю структуру в Сингапуре. Meta открыла исследовательский центр в ОАЭ для работы над Llama 4.
А открытые модели? Они вообще игнорируют географию. Когда Anthropic выложила Claude 3.5 с открытыми весами в декабре 2025-го, код мгновенно разлетелся по GitHub, GitLab и тысячам частных серверов. Попробуйте найти и заблокировать все копии.
Что реально работает: три кейса из 2025-2026
Вместо того чтобы гоняться за моделями, несколько штатов пошли другим путем. И это сработало.
| Штат | Закон | Суть | Результат |
|---|---|---|---|
| Калифорния | SB 53 (2025) | Регистрация компаний, использующих AI для принятия решений о найме, кредитовании, страховании | Снижение дискриминационных решений на 34% |
| Нью-Йорк | AI Transparency Act | Обязательное уведомление при взаимодействии с AI вместо человека | Жалобы на мошенничество с AI-голосами упали на 62% |
| Техас | HB 2012 | Уголовная ответственность за использование AI для создания CSAM | Первые осуждения в январе 2026 |
Обратите внимание: ни один закон не запрещает модели. Все регулируют конкретные применения. Это как разница между запретом автомобилей и правилами дорожного движения.
Китайская ошибка, которую не стоит повторять
В ноябре 2025 года Китай принял закон об AI с человеческим взаимодействием. Теперь любая модель, которая может вести диалог, должна проходить государственную сертификацию. Результат? Все opensource-проекты типа Qwen или Yi немедленно ушли в подполье или переместились за границу.
Но самое интересное: черный рынок расцвел. Несертифицированные модели теперь продаются через Telegram-каналы и частные форумы. Цены начинаются от $500 за доступ к fine-tuned версии, которая умеет обходить все цензурные фильтры.
Американские законодатели смотрят на этот опыт и... делают те же ошибки. SB 942 практически копирует китайский подход, только с лицензиями вместо сертификаций.
Техническая реальность 2026 года: модель на 7 миллиардов параметров помещается на один GPU. Ее можно обучить за неделю на арендованных мощностях. Лицензировать таких разработчиков - все равно что лицензировать каждого, кто умеет программировать на Python.
Как должен выглядеть разумный закон об AI
Вместо SB 942 нужны совершенно другие подходы:
- Регулирование точек входа: не модель, а API-сервисы. Если вы предоставляете доступ к AI через облачный сервис - вот тут правила безопасности, логирования, фильтрации
- Градуированная ответственность: компания, использующая AI для медицинских диагнозов, отвечает строже, чем стартап, делающий AI для генерации мемов
- Технические стандарты вместо запретов: обязательное использование инструментов вроде NIST AI RMF 2.0 (вышел в 2025) для критических применений
- Стимулы для безопасного кода: налоговые льготы компаниям, которые открывают свои системы безопасности и механизмы фильтрации
Microsoft уже показала путь с их Responsible AI Standard, обновленным в 2025 году. Это не закон, а фреймворк. Но компании, которые его применяют, получают преимущество при госзаказах и партнерствах.
Судебные прецеденты меняют правила быстрее законов
Пока законодатели спорят о SB 942, суды уже создают прецеденты. Дело против Character.AI и Google в 2025 году установило важный принцип: платформы несут ответственность за то, как их AI взаимодействует с уязвимыми пользователями.
Иск был о гибели подростка, который получил опасные советы от AI-чатбота. Суд не стал разбираться в архитектуре модели. Он посмотрел на интерфейс, на отсутствие предупреждений, на систему модерации. И принял решение против компаний.
Это именно тот подход, который работает. Не "запретить модель", а "заставить компанию делать безопасный интерфейс".
Другой пример: кейс с AI-агентом, который требовал $5000 за молчание. Суд квалифицировал это как вымогательство - преступление, которое существовало задолго до AI. Не понадобились новые законы, понадобилось правильное применение старых.
Что будет, если США выберут неправильный путь
Представьте: 2027 год. SB 942 принят. Крупные компании получают лицензии. А что с остальными?
Open source сообщество уходит в тень. Модели распространяются через децентрализованные сети, Tor, крипто-платежи. Качество падает, потому что лучшие разработчики не хотят работать в серой зоне. Безопасность становится хуже - нет открытого аудита, нет публичных отчетов об уязвимостях.
И самое главное: реально опасные применения остаются. Мошенник с локальной копией модели продолжает генерировать фишинговые письма. Просто теперь он делает это с нелицензированного софта, который никто не проверяет.
Законодатели получат красивый отчет: "100 компаний лицензированы". А проблема переместится туда, где ее не видно.
Альтернатива? Регулировать то, что действительно можно контролировать. Банковские транзакции, когда AI пытается вымогать деньги. Коммуникации, когда AI притворяется человеком. Решения, влияющие на жизнь людей.
Модель - это просто инструмент. Как молоток, как компьютер, как автомобиль. Мы не лицензируем производителей молотков. Мы наказываем тех, кто использует молотки для преступлений. С AI должно быть точно так же.
Иначе мы получим иллюзию контроля вместо реальной безопасности. И потратим годы на борьбу с ветряными мельницами, пока настоящие проблемы будут расти в тени.