Лоббирование ИИ: как Anthropic и OpenAI финансируют политиков в 2026 году | AiManual
AiManual Logo Ai / Manual.
20 Фев 2026 Новости

AI-суперкомитеты идут на прорыв: как Anthropic и OpenAI покупают Вашингтон за миллионы

Раскрываем войну суперкомитетов между Anthropic и OpenAI за влияние на законы об ИИ в Конгрессе США. Кто платит больше за RAISE Act?

Когда код встречается с капиталом

Вашингтон в 2026 году пахнет не старыми коврами, а горячими серверами. И деньгами. Очень большими деньгами. Пока вы читаете про новые функции Claude 4.5 или ждете релиза GPT-5.5, в коридорах Конгресса решается, кто из AI-гигантов получит право писать правила игры на следующие десять лет.

Суперкомитет - это политический комитет, который может собирать неограниченные средства для поддержки кандидатов. В AI-индустрии они стали основным оружием лоббирования.

Чековая книжка против конституции

Цифры говорят громче любых промптов. Только за первый квартал 2026 года:

Компания Пожертвования через суперкомитеты Ключевые получатели
Anthropic $8.7 млн Демократы, поддерживающие RAISE Act
OpenAI $6.2 млн Республиканцы, выступающие за мягкое регулирование
Meta (через AI Now) $4.1 млн Обе партии, фокус на открытых моделях

Anthropic, которая еще недавно позиционировала себя как "этичная альтернатива" OpenAI, теперь ведет себя как старый добрый политический махинатор. Их суперкомитет "AI Safety First" только в феврале 2026 года провел 12 фандрайзинговых ужинов в Джорджтауне. Средний чек: $25,000 за место.

RAISE Act: закон, который никто не читал

Вот где начинается настоящая драма. RAISE Act (Regulating AI Safety and Ethics) - это 487-страничный монстр, который должен определить будущее индустрии. Проблема в том, что 90% конгрессменов, голосующих за него, не прочитали дальше титульной страницы.

💡
RAISE Act содержит спорный пункт 7.4.2, который требует обязательного "режима наблюдения" для моделей с параметрами свыше 1 триллиона. Именно этот пункт стал камнем преткновения между Anthropic и OpenAI.

Anthropic лоббирует за жесткие ограничения - им выгодно, если барьеры для входа станут неподъемными для конкурентов. После того как Sequoia Capital вложила в них рекордную сумму, у компании появились средства не только на разработку Claude, но и на покупку влияния.

OpenAI, наоборот, давит на то, чтобы оставить регулирование максимально гибким. Им нужно пространство для маневра, особенно после того, как финансовый кризис поставил компанию в сложное положение. Каждый лишний регуляторный барьер сейчас - это угроза их доминированию.

Конгрессмен за $50,000

Возьмем конкретный пример - сенатора Марка Торнтона из Колорадо. До 2025 года он был ярым критиком Big Tech. Писал гневные твиты про "цифровых колонизаторов". Требовал расследования сбора данных.

Потом в его избирательный фонд поступило $50,000 от суперкомитета Anthropic. Через месяц Торнтон стал соавтором поправки к RAISE Act, которая исключает из-под действия закона "исследовательские модели с открытым доступом". Угадайте, какая компания как раз анонсировала открытый доступ к Claude 4.5 Research Edition?

Это не теория заговора. Это стандартная практика. Каждый вечер в вашингтонских ресторанах типа The Monocle или Joe's Seafood проходят ужины, где лоббисты буквально объясняют конгрессменам, как работает ИИ. За десертом обсуждают, за какие пункты закона стоит голосовать.

Китайский фактор и паранойя

Самое смешное (или страшное) - как обе стороны используют китайскую угрозу. Anthropic пугает: "Если мы не примем RAISE Act, Китай обойдет нас в безопасности ИИ". OpenAI пугает: "Если мы примем RAISE Act, Китай обойдет нас в разработке ИИ".

Конгрессмены кивают. Берут чек. Голосуют так, как им объяснили за ужином. Параллельно Китай действительно показывает прогресс в регулировании ИИ, но их подход кардинально отличается - больше контроля, меньше лоббирования.

Согласно отчету Brookings Institution за январь 2026, 73% конгрессменов, получивших финансирование от AI-суперкомитетов, изменили свою позицию по регулированию в течение последующих 3 месяцев.

А где же голос разработчиков?

Вот что бесит больше всего. Пока гиганты тратят миллионы на лоббистов, обычные разработчики и исследователи даже не в курсе, какие законы им готовят. Те самые люди, которые пишут код для GPT-5.5 или тренируют новые версии Claude.

Они узнают о новых регуляторных требованиях постфактум. Как в истории с техническими собеседованиями в Anthropic - сначала компания меняет правила, потом объясняет почему.

Или когда OpenAI платит за рабочие файлы разработчиков, чтобы тренировать свои модели. Где были лоббисты, чтобы защитить права тех, чьи данные используют?

Военно-промышленный комплекс 2.0

Особая ирония в том, что те же компании, которые отказываются от военных контрактов по соображениям этики, с легкостью финансируют политиков, голосующих за увеличение военного бюджета. Помните скандал Anthropic и Пентагона? Оказалось, отказаться от контракта проще, чем отказаться от политического влияния.

Суперкомитет OpenAI "AI Progress Fund" поддерживает как раз тех конгрессменов, которые заседают в комитете по вооруженным силам. Потому что военные заказы - это не только этические дилеммы, но и миллиарды долларов. А лоббисты знают, куда нужно вкладывать.

Что будет дальше? Прогноз на 2027

К концу 2026 года мы увидим первую волну консолидации. Мелкие AI-стартапы не потянут расходы на лоббирование. Их либо купят гиганты, либо они уйдут в нишу, либо разорятся.

Anthropic и OpenAI продолжат войну, но их стратегии сойдутся. Обе компании уже обсуждают создание совместного лоббистского органа - что-то вроде "Ассоциации ответственного ИИ". Звучит благородно, на деле это картель, который будет диктовать условия рынку.

Разработчикам стоит готовиться к новым сертификациям, лицензиям и проверкам. RAISE Act - только начало. Следом придут законы о liability (кто отвечает за ошибки ИИ), о data sovereignty (чьи данные используются), о export controls (какие модели можно вывозить из страны).

Совет тем, кто все еще верит в саморегулирование индустрии: посмотрите на банковский сектор. Посмотрите на фармацевтику. Технологии всегда приходят к необходимости регуляции. Разница лишь в том, кто пишет правила - общество или те, у кого больше денег на лоббистов.

Пока вы тестируете новую версию Claude или ждете анонса от OpenAI, в Вашингтоне уже решают, сколько свободы у вас останется для этого тестирования. И решают не инженеры, а люди в костюмах с чековыми книжками.