Дарио Амодеи хочет спасти мир. От вашего локального ИИ.
Если вы думали, что борьба за открытый искусственный интеллект закончилась в 2025 году, вы ошибались. В 2026-м она перешла в политическую плоскость, и главным антагонистом стал не какой-нибудь регулятор, а CEO Anthropic Дарио Амодеи. Тот самый, чья компания создала Claude - модель, которая, по его словам, "безопасна и выровнена". Теперь Амодеи и его союзники в Вашингтоне нацелились на последний бастион свободы: локальное развертывание AI-моделей. Включая те, что приходят из Китая.
На момент 23 февраля 2026 года ни один федеральный закон США напрямую не запрещает локальный инференс. Но несколько законопроектов в Калифорнии и на уровне Конгресса создают прецедент для такого запрета.
Лоббисты против видеокарт: как это работает
Амодеи не скрывает своих взглядов. В своих выступлениях он постоянно говорит о "экзистенциальных рисках" от неконтролируемого ИИ. И под "неконтролируемым" он подразумевает именно модели, которые можно запустить на своем железе без разрешения центрального сервера. Почему? Потому что так их нельзя отследить, нельзя обновить принудительно, нельзя отключить в случае "опасного поведения".
Но за красивыми словами о безопасности стоит простая бизнес-логика: Anthropic, OpenAI и другие гиганты зарабатывают на API-доступе к своим моделям. Локальный AI подрывает их монополию. И что еще хуже - позволяет китайским компаниям, таким как Baidu или SenseTime, распространять свои модели напрямую пользователям в США.
Об этом конфликте мы подробно писали в материале "Конфликт Anthropic и open-source: как скандал Дарьо Амодеи взорвал хрупкий мир локальных моделей".
Калифорния показывает путь
Штат Калифорния, где расположены почти все крупные AI-компании, уже принял несколько законов, которые создают прецедент. SB 53 и SB 942, которые вступили в силу в начале 2026 года, требуют от разработчиков AI-систем регистрировать свои модели и сообщать о "критических инцидентах".
Звучит невинно, пока не понимаешь, что под "разработчиком" может оказаться любой, кто скачал модель с Hugging Face и запустил ее на своем сервере. "Калифорния ставит ИИ на учёт" - вот как это работает на практике.
Китайские модели: удобный враг
Американо-китайская технологическая война дает лоббистам идеальный аргумент. "Китайские модели могут содержать бэкдоры для шпионажа", "Они распространяют пропаганду", "Они обходят санкции". Звучит знакомо? Это тот же нарратив, что и с Huawei, TikTok, и теперь с AI.
Но есть нюанс: китайские open-source модели, такие как Qwen 2.5 или DeepSeek-V3, технически часто превосходят западные аналоги. Об этом говорил даже Ян ЛеКун на Давосском форуме. Запретить их - значит лишить сообщество мощных инструментов.
Амодеи использует этот страх в своих интересах. В своем выступлении в Сенате на прошлой неделе он прямо сказал: "Мы не можем позволить потенциально враждебным государствам распространять непроверенные AI-системы на нашей территории". Под "непроверенными" он имеет в виду "не проверенные Anthropic".
Digital Millennium Copyright Act: тайное оружие
Вот где начинается настоящая игра. Лоббисты продвигают поправки к DMCA, которые бы запрещали обход "технических средств защиты" в AI-моделях. Модели от Anthropic, OpenAI и других уже имеют встроенные ограничения - системы безопасности, которые предотвращают генерацию вредоносного контента.
Но что, если кто-то взломает эти ограничения? Или создаст модель без них? Под поправками к DMCA это станет уголовным преступлением. А раз китайские модели часто поставляются без таких "защит" (потому что китайские регуляторы требуют другого), их распространение может быть запрещено как "содействие обходу технологических мер".
Это уже не теория. В "Войне за регулирование ИИ в США 2026" этот сценарий рассматривается как один из наиболее вероятных.
Что делать, если вы разработчик?
Паниковать рано. Но готовиться нужно.
- Следите за законами не только федеральными, но и на уровне штатов. Калифорния, Нью-Йорк, Иллинойс уже имеют свои инициативы.
- Используйте VPN и распределенные сети для доступа к моделям. Если GitHub заблокирует репозитории с китайскими моделями, они переедут в IPFS и Tor.
- Участвуйте в опенсорс-проектах которые разрабатывают инструменты для приватного инференса. Чем больше людей используют локальный AI, тем сложнее его запретить.
Самое главное - не дать страху победить. Лоббисты вроде Амодеи играют на опасениях регуляторов. Но сообщество open-source AI пережило и более жесткие времена.
Прогноз на 2027 год: полного запрета локального ИИ в США не будет. Но появятся серьезные ограничения для коммерческого использования и распространения "непроверенных" моделей. Китайские модели уйдут в подполье или будут распространяться через прокси.
И помните: каждый раз, когда вы запускаете модель на своем компьютере, вы голосуете за будущее, где AI принадлежит людям, а не корпорациям. Даже если для этого придется использовать китайское железо и обходить DMCA. (Шучу. Или нет.)
Что дальше? Смотрите, как развивается борьба с дипфейками - это следующий фронт в войне за регулирование AI.