Когда код встречается с капиталом
Вашингтон в 2026 году пахнет не старыми коврами, а горячими серверами. И деньгами. Очень большими деньгами. Пока вы читаете про новые функции Claude 4.5 или ждете релиза GPT-5.5, в коридорах Конгресса решается, кто из AI-гигантов получит право писать правила игры на следующие десять лет.
Суперкомитет - это политический комитет, который может собирать неограниченные средства для поддержки кандидатов. В AI-индустрии они стали основным оружием лоббирования.
Чековая книжка против конституции
Цифры говорят громче любых промптов. Только за первый квартал 2026 года:
| Компания | Пожертвования через суперкомитеты | Ключевые получатели |
|---|---|---|
| Anthropic | $8.7 млн | Демократы, поддерживающие RAISE Act |
| OpenAI | $6.2 млн | Республиканцы, выступающие за мягкое регулирование |
| Meta (через AI Now) | $4.1 млн | Обе партии, фокус на открытых моделях |
Anthropic, которая еще недавно позиционировала себя как "этичная альтернатива" OpenAI, теперь ведет себя как старый добрый политический махинатор. Их суперкомитет "AI Safety First" только в феврале 2026 года провел 12 фандрайзинговых ужинов в Джорджтауне. Средний чек: $25,000 за место.
RAISE Act: закон, который никто не читал
Вот где начинается настоящая драма. RAISE Act (Regulating AI Safety and Ethics) - это 487-страничный монстр, который должен определить будущее индустрии. Проблема в том, что 90% конгрессменов, голосующих за него, не прочитали дальше титульной страницы.
Anthropic лоббирует за жесткие ограничения - им выгодно, если барьеры для входа станут неподъемными для конкурентов. После того как Sequoia Capital вложила в них рекордную сумму, у компании появились средства не только на разработку Claude, но и на покупку влияния.
OpenAI, наоборот, давит на то, чтобы оставить регулирование максимально гибким. Им нужно пространство для маневра, особенно после того, как финансовый кризис поставил компанию в сложное положение. Каждый лишний регуляторный барьер сейчас - это угроза их доминированию.
Конгрессмен за $50,000
Возьмем конкретный пример - сенатора Марка Торнтона из Колорадо. До 2025 года он был ярым критиком Big Tech. Писал гневные твиты про "цифровых колонизаторов". Требовал расследования сбора данных.
Потом в его избирательный фонд поступило $50,000 от суперкомитета Anthropic. Через месяц Торнтон стал соавтором поправки к RAISE Act, которая исключает из-под действия закона "исследовательские модели с открытым доступом". Угадайте, какая компания как раз анонсировала открытый доступ к Claude 4.5 Research Edition?
Это не теория заговора. Это стандартная практика. Каждый вечер в вашингтонских ресторанах типа The Monocle или Joe's Seafood проходят ужины, где лоббисты буквально объясняют конгрессменам, как работает ИИ. За десертом обсуждают, за какие пункты закона стоит голосовать.
Китайский фактор и паранойя
Самое смешное (или страшное) - как обе стороны используют китайскую угрозу. Anthropic пугает: "Если мы не примем RAISE Act, Китай обойдет нас в безопасности ИИ". OpenAI пугает: "Если мы примем RAISE Act, Китай обойдет нас в разработке ИИ".
Конгрессмены кивают. Берут чек. Голосуют так, как им объяснили за ужином. Параллельно Китай действительно показывает прогресс в регулировании ИИ, но их подход кардинально отличается - больше контроля, меньше лоббирования.
Согласно отчету Brookings Institution за январь 2026, 73% конгрессменов, получивших финансирование от AI-суперкомитетов, изменили свою позицию по регулированию в течение последующих 3 месяцев.
А где же голос разработчиков?
Вот что бесит больше всего. Пока гиганты тратят миллионы на лоббистов, обычные разработчики и исследователи даже не в курсе, какие законы им готовят. Те самые люди, которые пишут код для GPT-5.5 или тренируют новые версии Claude.
Они узнают о новых регуляторных требованиях постфактум. Как в истории с техническими собеседованиями в Anthropic - сначала компания меняет правила, потом объясняет почему.
Или когда OpenAI платит за рабочие файлы разработчиков, чтобы тренировать свои модели. Где были лоббисты, чтобы защитить права тех, чьи данные используют?
Военно-промышленный комплекс 2.0
Особая ирония в том, что те же компании, которые отказываются от военных контрактов по соображениям этики, с легкостью финансируют политиков, голосующих за увеличение военного бюджета. Помните скандал Anthropic и Пентагона? Оказалось, отказаться от контракта проще, чем отказаться от политического влияния.
Суперкомитет OpenAI "AI Progress Fund" поддерживает как раз тех конгрессменов, которые заседают в комитете по вооруженным силам. Потому что военные заказы - это не только этические дилеммы, но и миллиарды долларов. А лоббисты знают, куда нужно вкладывать.
Что будет дальше? Прогноз на 2027
К концу 2026 года мы увидим первую волну консолидации. Мелкие AI-стартапы не потянут расходы на лоббирование. Их либо купят гиганты, либо они уйдут в нишу, либо разорятся.
Anthropic и OpenAI продолжат войну, но их стратегии сойдутся. Обе компании уже обсуждают создание совместного лоббистского органа - что-то вроде "Ассоциации ответственного ИИ". Звучит благородно, на деле это картель, который будет диктовать условия рынку.
Разработчикам стоит готовиться к новым сертификациям, лицензиям и проверкам. RAISE Act - только начало. Следом придут законы о liability (кто отвечает за ошибки ИИ), о data sovereignty (чьи данные используются), о export controls (какие модели можно вывозить из страны).
Совет тем, кто все еще верит в саморегулирование индустрии: посмотрите на банковский сектор. Посмотрите на фармацевтику. Технологии всегда приходят к необходимости регуляции. Разница лишь в том, кто пишет правила - общество или те, у кого больше денег на лоббистов.
Пока вы тестируете новую версию Claude или ждете анонса от OpenAI, в Вашингтоне уже решают, сколько свободы у вас останется для этого тестирования. И решают не инженеры, а люди в костюмах с чековыми книжками.