Янн ЛеКун о китайском лидерстве в open-source ИИ | Давос 2026 | AiManual
AiManual Logo Ai / Manual.
30 Янв 2026 Новости

ЛеКун в Давосе: «Китайские open-source модели лучше западных. И вот почему это больно»

Пионер ИИ Янн ЛеКун заявил в Давосе, что лучшие открытые модели создают в Китае. Разбираем его аргументы и последствия для Запада.

«Они просто делают лучше»

На панели в Давосе 30 января 2026 года Янн ЛеКун, один из крестных отцов современного ИИ, произнес фразу, которая заставила вздрогнуть всю западную технологическую элиту. «Если говорить о действительно открытых, публично доступных больших языковых моделях, то лучшие из них сейчас создаются в Китае», — сказал он, глядя прямо в камеру. Пауза после этой фразы длилась дольше, чем положено по протоколу.

ЛеКун не китайский пропагандист. Он главный научный сотрудник Meta AI, лауреат премии Тьюринга, человек, чья архитектура свёрточных нейронных сетей лежит в основе всего компьютерного зрения. Когда он говорит, индустрия слушает. А в этот раз она еще и обернулась.

Контекст: Заявление ЛеКуна прозвучало через неделю после релиза обновленных моделей Qwen 2.5 от Alibaba и через месяц после того, как DeepSeek-R1 на 671 миллиард параметров обошла в открытых бенчмарках все западные аналоги, включая Llama 3.2 от собственной компании ЛеКуна.

Аргументы ЛеКуна: не политика, а практика

Почему же китайские open-source модели оказались лучше? ЛеКун назвал три причины, и все они сводятся к банальной эффективности.

  • Меньше бюрократии вокруг данных. «Китайские команды агрессивно используют все доступные данные, включая западные. У них нет философских дебатов о том, можно ли тренироваться на Reddit или GitHub. Они просто делают это. И получают лучшие результаты».
  • Государственная поддержка как инфраструктура, а не как контроль. ЛеКун отметил, что китайские MoE-архитектуры (Mixture of Experts) развиваются быстрее благодаря доступным государственным суперкомпьютерам. «Это как дороги. Государство строит дороги, а компании уже решают, какие по ним машины пускать».
  • Культурный код «открытости». «В Китае существует мощная традиция академического и технологического обмена внутри экосистемы. Когда Baidu выпускает модель ERNIE, Tencent и Alibaba немедленно ее изучают, улучшают и выпускают что-то свое. Это здоровая, жесткая конкуренция, которая выливается в качество».

Ирония в том, что Запад, придумавший open-source, теперь проигрывает в его же игре. Наши модели либо полностью закрытые (GPT-4o, Gemini Ultra 2.0), либо открытые, но с таким количеством юридических ограничений, что их нельзя нормально использовать в коммерции. Llama 3.2 с ее лицензией, запрещающей сервисы с более чем 700 миллионами пользователей, — это не open-source. Это маркетинг.

Что на самом деле происходит в Китае? (Цифры на 30.01.2026)

Модель / Компания Статус Ключевой факт
DeepSeek-R1 (DeepSeek AI) Полностью открытая Лучшие результаты в открытых бенчмарках (MMLU: 86.5%). Веса и код на GitHub.
Qwen 2.5-72B (Alibaba) Apache 2.0 лицензия Превосходит Llama 3.1-70B в кодировании и математике. Нет ограничений на коммерческое использование.
GLM-4-9B-Chat-1M (Zhipu AI) Открытая для исследований Контекстное окно 1 миллион токенов. Работает на потребительском GPU.
Yi-Large (01.AI) Частично открытая Соревнуется с GPT-4 по качеству. API дешевле OpenAI в 3 раза.

Разрыв становится болезненным. Пока в США идут суды о нарушении авторских прав (The New York Times против OpenAI), а в ЕС принимают ИИ-Акт, который заставляет компании раскрывать, на чем тренировались их модели, китайские инженеры просто качают датасеты и запускают обучение. Результат? Модели, которые понимают и английский, и китайский, и код, и математику лучше, чем их западные «открытые» аналоги.

💡
Парадокс: Ослабление экспортного контроля США на чипы в 2025 году лишь ускорило этот процесс. Китайские компании теперь легально получают H200 от Nvidia и MI300X от AMD, что закрывает последний технологический разрыв.

Что это значит для Запада? (Сценарии на 2026-2027)

ЛеКун намекнул, но не стал проговаривать вслух. Давайте сделаем это за него.

Сценарий 1: Технологический вассалитет. Западные стартапы и средний бизнес начнут массово строить свои продукты на китайских open-source моделях. Зачем платить OpenAI $20 за 1 млн токенов, если Qwen 2.5 работает так же хорошо, а стоит в разы дешевле (или вообще бесплатно)? Инфраструктура ИИ станет китайской, как сегодня стала китайской инфраструктура солнечных панелей или аккумуляторов.

Сценарий 2: Раскол интернета. Китай создает свою экосистему ИИ-инструментов, которая лучше оптимизирована под азиатские языки и местный цифровой контекст (WeChat, Douyin, Alipay). Запад остается со своими моделями, которые плохо понимают 60% мирового населения. Получаем цифровой железный занавес 2.0.

Сценарий 3: Реакция и догонялка. Западные регуляторы в панике ослабляют хватку. Появляется «ИИ-Новый курс»: государственные инвестиции в открытые модели, отмена части ограничений по авторскому праву для обучения ИИ, создание альянсов по типу европейского «суверенного ИИ», но с реальным бюджетом. Meta выпускает Llama 4 под настоящей open-source лицензией. Но на это нужно время, которого, возможно, уже нет.

А как же контроль? А как же безопасность?

Самый острый вопрос. Китай готовит жесткий закон об ИИ, который требует «человеческого взаимодействия» и цензуры определенных тем. Но их open-source модели выходят в мир без этих ограничений. Получается стратегическая ловушка: Запад либо принимает технологически продвинутые, но потенциально «небезопасные» с его точки зрения модели, либо отстает.

ЛеКун закончил свою речь предупреждением: «Если мы не изменим подход, через два года лучший open-source ИИ будет говорить с китайским акцентом. И это будет не метафора». В зале повисла тишина. Потом зааплодировали. Скорее из вежливости.

Что делать западному разработчику прямо сейчас? Скачать DeepSeek-R1 и попробовать. Оценить разрыв на собственной шкуре. А потом решать — бороться за изменение правил игры у себя дома или просто использовать лучший инструмент, независимо от того, где его сделали. Выбор, который определит следующее десятилетие в ИИ.