Стандартная модель трещит по швам, а мы этого не видим
Представьте: вы ищете иголку в стоге сена. Потом в тысяче стогов. Потом в миллионе. Примерно так физики уже десять лет ищут что-то за пределами Стандартной модели — той самой теории, которая описывает всё, что мы знаем о частицах. Бозон Хиггса нашли в 2012-м, праздновали, а потом наступила тишина. Ни тёмной материи, ни суперсимметрии, ни новых измерений.
Проблема в том, что Большой адронный коллайдер генерирует примерно петабайт данных в секунду. Да, вы не ослышались. В секунду. Большую часть сразу отбрасывают триггерные системы — просто не хватает места хранить всё. А то, что остаётся, всё равно выглядит как цифровой ураган. Миллиарды столкновений протонов, каждый раз рождаются сотни частиц, которые летят в детекторах, оставляя следы, похожие на помехи старого телевизора.
Нейросеть вместо тысячи аспирантов
И вот здесь появляется ИИ. Не тот, что рисует картинки по запросу, а специализированные модели, которые учатся на симуляциях. Суть проста: сначала физики генерируют на суперкомпьютерах миллионы «идеальных» столкновений — как по Стандартной модели, так и с возможными отклонениями (новыми частицами, взаимодействиями). Потом нейросеть смотрит на эти симуляции и учится отличать «скучное» стандартное событие от «интересного» аномального.
Звучит логично, но есть нюанс. Ранние попытки в 2020-х часто заканчивались тем, что нейросеть находила не новую физику, а артефакты симуляций — ошибки в коде моделирования, которые сами физики не заметили. Получался замкнутый круг: ИИ искал сбои в программах, а не в природе.
Всё изменилось с приходом архитектур-трансформеров и методов unsupervised learning. Сейчас в CERN используют кастомные версии моделей, вроде P1-235B-A22B, адаптированные для работы с графами — представьте, что каждая частица после столкновения это узел в сети, а её траектория и энергия это связи между узлами. Нейросеть анализирует всю эту паутину целиком.
| Подход | Что делает | Главная проблема |
|---|---|---|
| Supervised Learning (2020-2023) | Учится на размеченных данных «есть сигнал / нет сигнала» | Находит только то, что уже предполагали учёные |
| Anomaly Detection (2024-2026) | Ищет вообще всё, что отклоняется от нормы, без предварительных гипотез | Слишком много ложных срабатываний от шума детектора |
| Графовые нейросети (2025-...) | Анализирует всё событие как единую систему связей | Требует чудовищных вычислительных ресурсов даже по меркам CERN |
Одна нейросеть уже нашла то, чего не должно быть. Или показалось?
В конце 2025 года в коллаборации CMS случилось то, о чём физики шепчутся в коридорах. Одна из anomaly detection сетей указала на кластер событий с необычным распределением энергии в мюонном спектрометре. Не такое, чтобы сразу кричать «Эврика!», но достаточно странное, чтобы перепроверить все калибровки трижды.
Статистическая значимость? Всего 3.2 сигма. Для открытия нужно 5 сигма (шанс ошибки 1 к 3.5 миллионам). Для физиков это как услышать слабый шорох в пустой комнате — может, сквозняк, а может, кто-то есть.
И вот здесь начинается самое интересное. Раньше такой слабый сигнал просто потерялся бы в общем отчёте на 500 страниц. Но нейросеть не просто его нашла — она построила визуализацию, показав, как именно эти аномальные события отличаются от фона. Не просто «здесь больше энергии», а «здесь нарушается корреляция между углом вылета и импульсом, характерная для стандартных процессов». Это уровень инсайта, на который у команды из двадцати человек ушли бы месяцы.
Главный страх физиков в 2026 году: ИИ найдёт что-то настолько странное, что это нельзя будет объяснить ни одной из существующих теорий. Или хуже — объяснить можно будет десятком разных способов, и начнётся война интерпретаций, которая застопорит поле на годы.
Адронный коллайдер как гигантский генератор данных для ИИ
Парадокс в том, что БАК сегодня это не только машина для открытия частиц, но и один из самых сложных в мире источников данных для тренировки ИИ. Те же алгоритмы, которые ищут редкие распады бозона Хиггса, теперь используют в медицине — для анализа томограмм на ранние признаки рака. Или в материаловедении — вспомните проект Genesis Mission от Google.
Но есть обратная сторона. Каждый новый, более сложный алгоритм требует всё больше вычислений. Тренировка графовой нейросети для анализа одного типа событий на кластерах типа DGX Spark может потреблять мегаватты энергии. Физики шутят, что скоро для анализа данных от коллайдера понадобится коллайдер энергии, чтобы питать суперкомпьютеры. Шутка, от которой становится не по себе, если посмотреть на аппетиты современных дата-центров.
Что, если ИИ ошибается красивее, чем мы?
Вот неудобный вопрос, который задают реже всего. Нейросети excel в нахождении паттернов. Даже если паттернов нет. Они видят лица в облаках, фигуры в кофейной гуще — и новые частицы в статистических флуктуациях. Как отличить одно от другого?
Ответ физиков жёсткий: независимое подтверждение на другом детекторе и другой методике анализа. Если ATLAS найдёт то же самое, что и CMS, но с другим алгоритмом — это уже серьёзно. Поэтому сейчас идёт гонка за создание ансамблей ИИ: несколько нейросетей с разными архитектурами ищут одно и то же, а потом их «голоса» усредняются.
Но тут возникает другая проблема — если все нейросети обучены на одних и тех же симуляциях, они могут унаследовать одни и те же слепые пятна. Как в той истории с автопилотом Tesla, который одинаково не видел белые грузовики на фоне неба — потому что в тренировочных данных таких сценариев было мало.
- Слепое пятно №1: ИИ отлично находит резкие, яркие аномалии. Но новая физика может быть тихой, едва заметной на фоне стандартных процессов.
- Слепое пятно №2: Все симуляции основаны на наших текущих знаниях. Если мы что-то упустили в теориях, нейросеть никогда этого не найдёт.
- Слепое пятно №3: Человек может бросить взгляд на график и сказать «здесь что-то не так, хотя не знаю что». У ИИ нет этой интуиции — только то, чему его явно научили.
Так найдут ли они что-нибудь, в конце концов?
Оптимисты говорят, что мы стоим на пороге. Что комбинация новых данных от модернизированного коллайдера (HL-LHC, который заработает в полную силу к 2027 году) и ИИ третьего поколения даст результат. Пессимисты качают головой: если за 15 лет работы БАК не нашёл ничего существенного за пределами Стандартной модели, может, там просто ничего нет?
Лично я ставлю на то, что ИИ найдёт не новую частицу, а что-то более странное. Недостающую энергию в определённых каналах распада. Нарушение симметрии в местах, где его не ждали. Что-то, что не вписывается не только в Стандартную модель, но и в её популярные расширения. Что-то, что заставит физиков сказать: «Мы даже не знаем, как это назвать».
И тогда начнётся самое интересное. Потому что сегодняшний ИИ — это всего лишь мощный микроскоп. Но следующий шаг — это ИИ, который не только находит аномалии, но и предлагает теории для их объяснения. Представьте нейросеть, которая смотрит на странные данные и генерирует десятки возможных математических моделей, каждая из которых их объясняет. Уже сейчас такие эксперименты ведутся — например, в проектах по анализу гравитационных волн, о которых мы писали в материале про Deep Loop Shaping.
Мой прогноз на ближайшие пять лет: первое серьёзное открытие «новой физики» будет сделано не человеком, просматривающим графики, и не автоматизированной системой триггеров, а гибридной системой — где ИИ фильтрует терабайты данных в поисках странностей, а физики потом разбираются, что эти странности значат. И это изменит не только физику, но и то, как мы вообще занимаемся наукой.
Потому что в конце концов, иголку в стоге сена может найти и человек. Но только если он знает, что это за иголка и как она выглядит. А если нет — нужен кто-то, кто может найти вообще всё, что на иголку не похоже.