Этичный пионер или мастер двойных стандартов?
На прошлой неделе Anthropic, компания, которая годами строила репутацию самого ответственного игрока в AI, устроила публичный скандал. Они выпустили официальное заявление, обвинив "ряд китайских государственных и частных организаций" в систематической краже их проприетарных технологий. Цель - последняя флагманская модель Claude 4.5, выпущенная в начале 2026 года.
Ирония в том, что пока представители Anthropic читали мораль о честной конкуренции, их собственные юристы пытались замять детали Project Panama. Это операция по нелегальному сканированию миллионов книг для обучения первых версий Claude. Стоимость проекта? Те самые $1.5 миллиарда.
Что, по словам Anthropic, украли?
В иске, поданном в федеральный суд США, компания утверждает, что китайские хакеры получили доступ не только к весам модели Claude 4.5, но и к данным её RLHF-обучения (Reinforcement Learning from Human Feedback) и внутренней архитектуре "Constitutional AI". Это то, что отличает Claude от конкурентов - система внутренних "конституционных" принципов, которые, как заявляет Anthropic, делают модель более безопасной и управляемой.
| Что украли | Версия модели | Оценочный ущерб |
|---|---|---|
| Архитектура Constitutional AI | Claude 4.5 (2026) | Неоценим (коммерческая тайна) |
| Веса модели (weights) | Claude 4.0 - 4.5 | ~$3-5 млрд на разработку |
| RLHF-данные и промпты | Все версии | $1.5+ млрд (Project Panama) |
Китайский ответ: от обвинений к закону
Реакция из Пекина была быстрой и резкой. Официальный представитель Министерства промышленности и информационных технологий Китая назвал заявления Anthropic "технологическим высокомерием и попыткой замедлить законное развитие суверенного ИИ". Более того, они намекнули, что имеют доказательства того, что сам Claude был обучен на данных, краденных у китайских научных издательств.
Параллельно в Китае ускорилось рассмотрение нового закона об AI с человеческим взаимодействием. Закон, который де-факто может легализовать использование любых публично доступных моделей для обратного проектирования в исследовательских целях. Удобно, не правда ли?
Сообщество смеется. Или плачет?
В чатах AI-разработчиков этот скандал окрестили "Империей наносит ответный удар". Почему? Потому что за последние два года именно сообщество open-source энтузиастов, часто из тех же азиатских регионов, создало целую экосистему дистиллированных, легковесных версий моделей Anthropic. Как мы уже писали, Anthropic невольно стала лидером open-weight движения, потому что её модели были так хороши, что их стоило копировать.
Геополитика как прикрытие
Эксперты видят в этом скандале чистую геополитику. Гонка за лидерство в AI вышла на новый уровень после того, как китайские модели вроде DeepSeek и Qwen начали обходить западные по конкретным, прикладным задачам. Обвинения в краже - это не попытка защитить интеллектуальную собственность. Это попытка замедлить конкурента, который научился играть по твоим же правилам, но лучше.
Вспомните скандал с Solar-100B. Тогда южнокорейская "суверенная" модель оказалась почти полной копией китайской GLM. Цикл повторяется: все воруют у всех, но судятся только когда нужно надавить политически.
Авторы книг нервно курят в сторонке
Самое смешное (или грустное) во всей этой истории - это полное игнорирование исходных правообладателей. Пока Anthropic судится за свои $3 миллиарда ущерба, авторы книг, статей и научных работ, на которых обучался Claude, судятся за мизерные компенсации. Иски на миллиарды долларов от авторов и издателей висят в судах с 2024 года. Anthropic предлагала им урегулирования по $3000 за книгу. Это не ошибка. Три тысячи.
Итог: компания, которая украла данные у миллионов авторов на $1.5 млрд, теперь кричит "Караул!" когда у неё самой что-то крадут. Классика жанра.
Что будет дальше? Прогноз от того, кто видел это раньше
Суд затянется на годы. Китайские компании выпустят "оригинальные" модели с архитектурой, "вдохновлённой" Claude, но с другими названиями нейронов и слоёв. Anthropic получит символические откаты или политические дивиденды в Вашингтоне. А сообщество open-source продолжит качать веса моделей с торрентов, смеясь над официальными пресс-релизами.
Единственный реальный итог - ускорение регуляций. И США, и Китай теперь будут давить на свои компании, чтобы те лучше защищали "национальные AI-активы". Это убьёт последние остатки открытости в исследованиях. Будущее за закрытыми, милитаризированными ИИ, которые обучаются на украденных данных, но охраняются как ядерные секреты.
Совет? Не верьте ханжеским заявлениям корпораций. Следите за кодом. Самые интересные модели 2027 года появятся не в блогах Anthropic или OpenAI, а на obscure форумах и в Telegram-каналах. Как всегда.