Llama 4: статья Meta ретрактирована с arXiv - что случилось? | AiManual
AiManual Logo Ai / Manual.
27 Янв 2026 Новости

Пропавшая Llama 4: что известно о ретракции статьи Meta и почему это важно

Статья о Llama 4 исчезла с arXiv 26 января 2026. Разбираемся, почему Meta ретрактировала исследование и что это значит для open-source AI.

Статья испарилась. Просто взяла и исчезла

Вчера, 26 января 2026 года, официальная статья Meta о Llama 4 бесследно пропала с arXiv. Еще утром она была доступна, а к вечеру - только сухая страница с пометкой "retracted by the authors". Ни объяснений, ни альтернативной ссылки. Тишина.

Ретракция научной статьи - это не опечатка в твите. Это формальный отзыв публикации. Для компании, которая последние годы кричала об открытости и прозрачности, такой шаг пахнет либо паникой, либо сокрытием.

Мы проверили кэши. Мы опросили источники. Статья была. Теперь ее нет. В ней, по слухам, описывалась архитектура Llama 4 - следующего флагмана открытых LLM от Meta. И ключевые бенчмарки, которые должны были заткнуть за пояс и GPT-4.5, и Claude 3.7.

Контекст? Сплошные утечки и скандалы

Это не "вдруг". Это закономерность. Месяц назад мы разбирали баг в API, через который утекла Llama 3.3 8B. Потом был разгромный материал от Яна Лекуна о том, как в Meta накручивали бенчмарки для Llama 4. Компания теряет контроль. Или просто перестает его имитировать.

Паттерн ясен: обещаем открытость -> случается утечка -> паникуем и зажимаем информацию. Классика.

💡
На 27.01.2026 актуальная версия семейства моделей от Meta - Llama 3.3. Официального релиза Llama 4 не было, что делает исчезновение ее статьи еще более странным. Получается, ретрактировали описание модели, которой публично не существует.

Почему всем должно быть не по себе

Потому что это не внутренняя разборка Meta. Это удар по фундаменту open-source AI. За последние два года сообщество выросло на открытых весах и статьях Meta. Мы учились, дорабатывали, разбирали их модели на нейроны. Доверие было валютой.

Теперь что? Статьи можно ретрактировать без объяснений. Бенчмарки, как выяснилось, можно накручивать. А выдавать устаревшие модели за прорывные - вообще обычное дело.

  • Инженеры не могут проверить методы обучения.
  • Исследователи не могут воспроизвести результаты.
  • Весь open-source stack под Llama начинает шататься.

Что они могли там написать, что пришлось удалять?

Теории ходят самые дикие. От банальной опечатки в уравнении с потерей 10% точности до упоминания краудсорсинговых данных, которые оказались под копирайтом. Или, что вероятнее, в статье проговорились о реальных показателях, которые сильно отстают от тех, что уже раскручены в медиа через партнерские блоги.

Самое неприятное - это сигнал. Meta либо готовится к повороту в сторону закрытости (вспомните уход Лекуна), либо тонет в внутренних проблемах настолько, что не может контролировать даже публикацию статей.

Что делать вам? Перестать принимать за чистую монету пресс-релизы и красивые графики. Тестируйте модели сами, на своих данных. Собирайте RAG-системы из проверенных компонентов. И держите под рукой независимые платформы для оценки, вроде Open LLM Leaderboard.

Прогноз мрачный, но простой: эра слепого доверия к big tech в AI закончилась. Вчера. Вместе со статьей про Llama 4. Теперь каждый шаг нужно перепроверять. Как в том старом добром интернете, которого, кажется, уже никто не помнит.