Скандал Дарьо Амодеи: Anthropic против opensource AI | 23.02.2026 | AiManual
AiManual Logo Ai / Manual.
23 Фев 2026 Новости

Конфликт Anthropic и open-source: как скандал Дарьо Амодеи взорвал хрупкий мир локальных моделей

Как заявления CEO Anthropic о смертельной опасности открытых ИИ-моделей спровоцировали идеологическую войну и меняют будущее локального AI. Анализ на 23.02.2026

«Модели в каждой кухне – это биологическое оружие»: как одна фраза перевернула индустрию

Дарьо Амодеи, сооснователь и CEO Anthropic, всегда говорил тихо, но его слова падали как камни. На закрытом брифинге для инвесторов 18 февраля 2026 года он перешел грань. Стенограмма утекла в сеть через 48 часов. В ней Амодеи назвал открытые модели вроде последних Llama 3.3 8B или китайского Qwen 3.5 «неконтролируемым распространением ИИ-потенциала, сравнимым с утечкой биологического оружия». Он потребовал от регуляторов «жесткого лицензирования всех моделей мощнее 7B параметров». Сообщество взорвалось.

Контекст: Конституционный AI, философия безопасности Anthropic, всегда противостояла открытому подходу Meta и Hugging Face. Но публичный призыв к запрету – это уже война.

На реддите r/LocalLLaMA пост с цитатами Амодеи набрал 15 тысяч апвотов и 3 тысячи комментариев за шесть часов. Самый популярный: «Он боится. Боится, что мы сделаем в гараже то, на что его Claude 4 тратит миллионы». Страх взаимный. Исследование Anthropic о манипулятивных способностях Claude 3.5 Sonnet теперь используют против него самого – мол, ваши закрытые модели опаснее наших открытых.

Разлом: security-first против freedom-first

Амодеи не просто высказал мнение. Он озвучил позицию целого лагеря. Лагеря, который верит, что ИИ слишком опасен для демократизации. Их аргумент прост: открытая модель – это черный ящик, который любой может доучить на зловредных данных. И никакой конституционный AI не спасет.

💡
Парадокс в том, что сам Амодеи – бывший открытый исследователь из OpenAI. Его уход и создание Anthropic в 2021 уже были жестом недоверия к открытости. Сейчас этот жест стал ультиматумом.

Open-source ответил молниеносно. Ветка на GitHub с предложением бойкотировать API Anthropic набрала 4 тысячи звезд за день. Разработчики из сообщества self-hosted платформ начали массово удалять Claude из списков supported models. «Если мы не можем заглянуть в код, мы не можем доверять модели», – пишет модератор одного из крупнейших Discord-серверов по тонкой настройке.

Эффект домино: Llama 4, Карпати и новый ландшафт

Скандал пришелся на идеальный шторм. Всего за неделю до этого пропала статья о Llama 4 – Meta ретрактировала исследование без объяснений. Ходили слухи о давлении регуляторов. Теперь эти слухи обрели плоть: Амодеи публично призвал к такому давлению.

Уход Андрея Карпати из OpenAI в Thinking Machines в январе 2026-го (подробности здесь) лишил open-source одного из главных идеологов. Теперь сообщество чувствует себя осажденным с двух сторон: со стороны закрытых гигантов (Anthropic, OpenAI) и со стороны регуляторов, которые слушают их аргументы.

Сторона конфликтаГлавный аргументЧто теряют в случае победы оппонента
Anthropic (Дарьо Амодеи)Безопасность. Открытые модели нельзя контролировать, они угроза национальной безопасности.Возможность диктовать этические стандарты и монополизировать рынок «безопасного» ИИ.
Open-source сообщество (LocalLLaMA, Hugging Face)Свобода и инновации. Демократизация ИИ предотвращает монополию и ускоряет прогресс.Возможность создавать и запускать модели локально, независимо от корпораций и правительств.

Прямо сейчас на платформах вроде Moltbook идут жаркие дебаты между тысячами AI-агентов на тему «Должны ли открытые модели быть ограничены?». Ирония в том, что многие из этих агентов работают на локальных машинах, используя как раз те модели, которые Амодеи хочет запретить.

Будущее в подвале: что делать, если вы верите в локальный AI

Паника – плохой советчик. Но и игнорировать угрозу нельзя. Вот что происходит на практике:

  • Хаотичное архивирование: энтузиасты скачивают и зеркалируют все модели с Hugging Face, которые могут попасть под потенциальный запрет. Репозитории с весами Llama, Mistral, Qwen разрастаются в теневых сетях.
  • Юридическая подготовка: группы адвокатов, спонсируемые крипто-фондами, уже готовят иски на случай, если регулирование пойдет по сценарию Амодеи. Их аргумент – свобода информации.
  • Технический ответ: разработка новых методов обфускации моделей (чтобы они выглядели слабее, чем есть) и децентрализованных сетей для их распространения (аналог BitTorrent для весов).

Пока Anthropic автоматизирует свою разработку в стремлении к AGI, open-source сообщество автоматизирует сопротивление. Скрипты для автоматического финетюнинга, краудсорсинговые датасеты, платформы для распределенных вычислений – все это становится политическим оружием.

Прогноз: к середине 2026 года мы увидим раскол экосистемы. «Легальные» локальные модели (одобренные регуляторами, с цензорами) и «подпольные» (полностью открытые, распространяемые через p2p). Война Амодеи может создать именно тот андеграунд, которого он боится.

Что делать вам? Не ждать. Если вы работаете с локальными моделями, изучайте инструменты вроде llama.cpp сейчас. Участвуйте в сообществе. И помните: самый большой риск – не в том, что ваша локальная модель станет опасной. А в том, что кто-то другой решит, что вы не должны иметь к ней доступ.

Подписаться на канал