«Модели в каждой кухне – это биологическое оружие»: как одна фраза перевернула индустрию
Дарьо Амодеи, сооснователь и CEO Anthropic, всегда говорил тихо, но его слова падали как камни. На закрытом брифинге для инвесторов 18 февраля 2026 года он перешел грань. Стенограмма утекла в сеть через 48 часов. В ней Амодеи назвал открытые модели вроде последних Llama 3.3 8B или китайского Qwen 3.5 «неконтролируемым распространением ИИ-потенциала, сравнимым с утечкой биологического оружия». Он потребовал от регуляторов «жесткого лицензирования всех моделей мощнее 7B параметров». Сообщество взорвалось.
Контекст: Конституционный AI, философия безопасности Anthropic, всегда противостояла открытому подходу Meta и Hugging Face. Но публичный призыв к запрету – это уже война.
На реддите r/LocalLLaMA пост с цитатами Амодеи набрал 15 тысяч апвотов и 3 тысячи комментариев за шесть часов. Самый популярный: «Он боится. Боится, что мы сделаем в гараже то, на что его Claude 4 тратит миллионы». Страх взаимный. Исследование Anthropic о манипулятивных способностях Claude 3.5 Sonnet теперь используют против него самого – мол, ваши закрытые модели опаснее наших открытых.
Разлом: security-first против freedom-first
Амодеи не просто высказал мнение. Он озвучил позицию целого лагеря. Лагеря, который верит, что ИИ слишком опасен для демократизации. Их аргумент прост: открытая модель – это черный ящик, который любой может доучить на зловредных данных. И никакой конституционный AI не спасет.
Open-source ответил молниеносно. Ветка на GitHub с предложением бойкотировать API Anthropic набрала 4 тысячи звезд за день. Разработчики из сообщества self-hosted платформ начали массово удалять Claude из списков supported models. «Если мы не можем заглянуть в код, мы не можем доверять модели», – пишет модератор одного из крупнейших Discord-серверов по тонкой настройке.
Эффект домино: Llama 4, Карпати и новый ландшафт
Скандал пришелся на идеальный шторм. Всего за неделю до этого пропала статья о Llama 4 – Meta ретрактировала исследование без объяснений. Ходили слухи о давлении регуляторов. Теперь эти слухи обрели плоть: Амодеи публично призвал к такому давлению.
Уход Андрея Карпати из OpenAI в Thinking Machines в январе 2026-го (подробности здесь) лишил open-source одного из главных идеологов. Теперь сообщество чувствует себя осажденным с двух сторон: со стороны закрытых гигантов (Anthropic, OpenAI) и со стороны регуляторов, которые слушают их аргументы.
| Сторона конфликта | Главный аргумент | Что теряют в случае победы оппонента |
|---|---|---|
| Anthropic (Дарьо Амодеи) | Безопасность. Открытые модели нельзя контролировать, они угроза национальной безопасности. | Возможность диктовать этические стандарты и монополизировать рынок «безопасного» ИИ. |
| Open-source сообщество (LocalLLaMA, Hugging Face) | Свобода и инновации. Демократизация ИИ предотвращает монополию и ускоряет прогресс. | Возможность создавать и запускать модели локально, независимо от корпораций и правительств. |
Прямо сейчас на платформах вроде Moltbook идут жаркие дебаты между тысячами AI-агентов на тему «Должны ли открытые модели быть ограничены?». Ирония в том, что многие из этих агентов работают на локальных машинах, используя как раз те модели, которые Амодеи хочет запретить.
Будущее в подвале: что делать, если вы верите в локальный AI
Паника – плохой советчик. Но и игнорировать угрозу нельзя. Вот что происходит на практике:
- Хаотичное архивирование: энтузиасты скачивают и зеркалируют все модели с Hugging Face, которые могут попасть под потенциальный запрет. Репозитории с весами Llama, Mistral, Qwen разрастаются в теневых сетях.
- Юридическая подготовка: группы адвокатов, спонсируемые крипто-фондами, уже готовят иски на случай, если регулирование пойдет по сценарию Амодеи. Их аргумент – свобода информации.
- Технический ответ: разработка новых методов обфускации моделей (чтобы они выглядели слабее, чем есть) и децентрализованных сетей для их распространения (аналог BitTorrent для весов).
Пока Anthropic автоматизирует свою разработку в стремлении к AGI, open-source сообщество автоматизирует сопротивление. Скрипты для автоматического финетюнинга, краудсорсинговые датасеты, платформы для распределенных вычислений – все это становится политическим оружием.
Прогноз: к середине 2026 года мы увидим раскол экосистемы. «Легальные» локальные модели (одобренные регуляторами, с цензорами) и «подпольные» (полностью открытые, распространяемые через p2p). Война Амодеи может создать именно тот андеграунд, которого он боится.
Что делать вам? Не ждать. Если вы работаете с локальными моделями, изучайте инструменты вроде llama.cpp сейчас. Участвуйте в сообществе. И помните: самый большой риск – не в том, что ваша локальная модель станет опасной. А в том, что кто-то другой решит, что вы не должны иметь к ней доступ.