«Они просто делают лучше»
На панели в Давосе 30 января 2026 года Янн ЛеКун, один из крестных отцов современного ИИ, произнес фразу, которая заставила вздрогнуть всю западную технологическую элиту. «Если говорить о действительно открытых, публично доступных больших языковых моделях, то лучшие из них сейчас создаются в Китае», — сказал он, глядя прямо в камеру. Пауза после этой фразы длилась дольше, чем положено по протоколу.
ЛеКун не китайский пропагандист. Он главный научный сотрудник Meta AI, лауреат премии Тьюринга, человек, чья архитектура свёрточных нейронных сетей лежит в основе всего компьютерного зрения. Когда он говорит, индустрия слушает. А в этот раз она еще и обернулась.
Контекст: Заявление ЛеКуна прозвучало через неделю после релиза обновленных моделей Qwen 2.5 от Alibaba и через месяц после того, как DeepSeek-R1 на 671 миллиард параметров обошла в открытых бенчмарках все западные аналоги, включая Llama 3.2 от собственной компании ЛеКуна.
Аргументы ЛеКуна: не политика, а практика
Почему же китайские open-source модели оказались лучше? ЛеКун назвал три причины, и все они сводятся к банальной эффективности.
- Меньше бюрократии вокруг данных. «Китайские команды агрессивно используют все доступные данные, включая западные. У них нет философских дебатов о том, можно ли тренироваться на Reddit или GitHub. Они просто делают это. И получают лучшие результаты».
- Государственная поддержка как инфраструктура, а не как контроль. ЛеКун отметил, что китайские MoE-архитектуры (Mixture of Experts) развиваются быстрее благодаря доступным государственным суперкомпьютерам. «Это как дороги. Государство строит дороги, а компании уже решают, какие по ним машины пускать».
- Культурный код «открытости». «В Китае существует мощная традиция академического и технологического обмена внутри экосистемы. Когда Baidu выпускает модель ERNIE, Tencent и Alibaba немедленно ее изучают, улучшают и выпускают что-то свое. Это здоровая, жесткая конкуренция, которая выливается в качество».
Ирония в том, что Запад, придумавший open-source, теперь проигрывает в его же игре. Наши модели либо полностью закрытые (GPT-4o, Gemini Ultra 2.0), либо открытые, но с таким количеством юридических ограничений, что их нельзя нормально использовать в коммерции. Llama 3.2 с ее лицензией, запрещающей сервисы с более чем 700 миллионами пользователей, — это не open-source. Это маркетинг.
Что на самом деле происходит в Китае? (Цифры на 30.01.2026)
| Модель / Компания | Статус | Ключевой факт |
|---|---|---|
| DeepSeek-R1 (DeepSeek AI) | Полностью открытая | Лучшие результаты в открытых бенчмарках (MMLU: 86.5%). Веса и код на GitHub. |
| Qwen 2.5-72B (Alibaba) | Apache 2.0 лицензия | Превосходит Llama 3.1-70B в кодировании и математике. Нет ограничений на коммерческое использование. |
| GLM-4-9B-Chat-1M (Zhipu AI) | Открытая для исследований | Контекстное окно 1 миллион токенов. Работает на потребительском GPU. |
| Yi-Large (01.AI) | Частично открытая | Соревнуется с GPT-4 по качеству. API дешевле OpenAI в 3 раза. |
Разрыв становится болезненным. Пока в США идут суды о нарушении авторских прав (The New York Times против OpenAI), а в ЕС принимают ИИ-Акт, который заставляет компании раскрывать, на чем тренировались их модели, китайские инженеры просто качают датасеты и запускают обучение. Результат? Модели, которые понимают и английский, и китайский, и код, и математику лучше, чем их западные «открытые» аналоги.
Что это значит для Запада? (Сценарии на 2026-2027)
ЛеКун намекнул, но не стал проговаривать вслух. Давайте сделаем это за него.
Сценарий 1: Технологический вассалитет. Западные стартапы и средний бизнес начнут массово строить свои продукты на китайских open-source моделях. Зачем платить OpenAI $20 за 1 млн токенов, если Qwen 2.5 работает так же хорошо, а стоит в разы дешевле (или вообще бесплатно)? Инфраструктура ИИ станет китайской, как сегодня стала китайской инфраструктура солнечных панелей или аккумуляторов.
Сценарий 2: Раскол интернета. Китай создает свою экосистему ИИ-инструментов, которая лучше оптимизирована под азиатские языки и местный цифровой контекст (WeChat, Douyin, Alipay). Запад остается со своими моделями, которые плохо понимают 60% мирового населения. Получаем цифровой железный занавес 2.0.
Сценарий 3: Реакция и догонялка. Западные регуляторы в панике ослабляют хватку. Появляется «ИИ-Новый курс»: государственные инвестиции в открытые модели, отмена части ограничений по авторскому праву для обучения ИИ, создание альянсов по типу европейского «суверенного ИИ», но с реальным бюджетом. Meta выпускает Llama 4 под настоящей open-source лицензией. Но на это нужно время, которого, возможно, уже нет.
А как же контроль? А как же безопасность?
Самый острый вопрос. Китай готовит жесткий закон об ИИ, который требует «человеческого взаимодействия» и цензуры определенных тем. Но их open-source модели выходят в мир без этих ограничений. Получается стратегическая ловушка: Запад либо принимает технологически продвинутые, но потенциально «небезопасные» с его точки зрения модели, либо отстает.
ЛеКун закончил свою речь предупреждением: «Если мы не изменим подход, через два года лучший open-source ИИ будет говорить с китайским акцентом. И это будет не метафора». В зале повисла тишина. Потом зааплодировали. Скорее из вежливости.
Что делать западному разработчику прямо сейчас? Скачать DeepSeek-R1 и попробовать. Оценить разрыв на собственной шкуре. А потом решать — бороться за изменение правил игры у себя дома или просто использовать лучший инструмент, независимо от того, где его сделали. Выбор, который определит следующее десятилетие в ИИ.