Графовые нейронные сети для моделирования материалов в ядерной энергетике | GNN и карбид технеция | AiManual
AiManual Logo Ai / Manual.
11 Фев 2026 Гайд

Когда атомы становятся графами: как GNN переписывают правила ядерного материаловедения

Как графовые нейронные сети ускоряют расчёт фазовых диаграмм в 1000 раз. Практический кейс по карбиду технеция из Acta Materialia. AI для науки без хайпа.

Проблема, которая сводила с ума материаловедов 50 лет

Представьте, что вам нужно предсказать, как поведёт себя материал в активной зоне ядерного реактора при температуре 2000°C и давлении в сотни атмосфер. Не в теории, а на практике. С точностью до атома.

До 2025 года это было похоже на гадание на кофейной гуще, только с суперкомпьютерами. Классические методы молекулярной динамики и квантово-химические расчёты требовали месяцев вычислений даже для простых систем. А фазовые диаграммы (те самые карты, которые показывают, в каком состоянии будет материал при разных температурах и давлениях) строились методом научного тыка: сделали сотню дорогих экспериментов, нарисовали кривые между точками, надеемся, что не ошиблись.

Особенно доставалось карбиду технеция (TcC) — перспективному материалу для топливных таблеток реакторов IV поколения. Его фазовую диаграмму пытались рассчитать с 1970-х. Без особого успеха.

Почему графы, а не таблицы Excel

Вот где начинается магия. Материалы — это по определению графы. Атомы — узлы. Химические связи — рёбра. Кристаллическая решётка — регулярный граф с периодическими граничными условиями.

Но до недавнего времени все пытались запихнуть эту графовую структуру в табличные данные или векторы фиксированной длины. Это как описывать социальную сеть списком «у пользователя А 127 друзей, у Б — 43». Технически верно, но полностью теряется структура связей.

💡
Графовые нейронные сети (GNN) работают иначе. Они не видят атомы по отдельности. Они видят локальное окружение каждого атома и то, как это окружение взаимодействует с соседями. Именно так и происходит в реальном материале — свойства определяются не отдельными атомами, а их коллективным поведением.

В исследовании, опубликованном в Acta Materialia в январе 2026, команда из Национальной лаборатории Ок-Ридж и MIT показала, как это работает на практике. Они взяли архитектуру GNN последнего поколения — так называемые «сообщающиеся» графовые сети (Message Passing Neural Networks, MPNN) с механизмами внимания, похожими на те, что используются в трансформерах типа Cerebras GLM4.7.

Что сделали конкретно с карбидом технеция

Алгоритм выглядит деceptively простым, если не знать, какая вычислительная мощь за ним стоит:

  1. Собрали датасет из ~50 000 конфигураций атомов технеция и углерода, рассчитанных методами теории функционала плотности (DFT). Каждая такая конфигурация — это граф с 64-256 атомами.
  2. Обучили GNN предсказывать энергию системы, силы на атомах и тензор напряжений по графовому представлению. Без всяких ручных фич — только атомные номера и координаты.
  3. Использовали обученную модель в гибридном методе Монте-Карло для поиска наиболее стабильных фаз при разных температурах и давлениях.

Результат? Фазовая диаграмма TcC, которая раньше требовала бы ~10 000 часов CPU времени, была построена за 10 часов на одной GPU NVIDIA A100. Ускорение в 1000 раз — это не маркетинговая цифра, а реальный результат из рецензируемой статьи.

Метод Время расчёта Точность (MAE энергии) Что можно рассчитать за разумное время
DFT (квантовая химия) ~1000 часов на конфигурацию Эталон (0 meV/atom) Несколько десятков конфигураций
Классические силовые поля ~10 часов на конфигурацию 10-50 meV/atom (часто недостаточно) Тысячи конфигураций, но только для известных материалов
GNN (после обучения) ~0.01 секунды на конфигурацию 2-5 meV/atom (близко к DFT) Миллионы конфигураций, полные фазовые диаграммы

Под капотом: как устроена GNN для материалов

Если вы думаете, что это просто очередная нейросеть, вы ошибаетесь. Архитектура здесь — это 80% успеха.

1 Кодирование инвариантностей

Материал должен вести себя одинаково, как бы вы ни повернули кристалл или ни сдвинули начало координат. Физика не зависит от системы отсчёта. Поэтому в GNN для материалов жёстко встроены:

  • Инвариантность к平移циям: используют только относительные координаты атомов
  • Инвариантность к вращениям: вместо векторов используют скалярные произведения и расстояния
  • Инвариантность к перестановкам: графы по определению не зависят от порядка атомов

2 Механизм передачи сообщений

Сердце GNN — это итеративный процесс, где каждый атом (узел) собирает информацию от соседей, обновляет своё «состояние», и передаёт дальше. После 3-5 таких итераций каждый атом знает не только о ближайших соседях, но и о структуре в радиусе 10-15 Å.

Это похоже на слухи в маленьком городке: через несколько часов все знают новость, даже если непосредственно с источником не общались.

3 Чтение графа (Readout)

После того как все атомы обновили свои представления, нужно получить свойства всей системы. Самый простой способ — просто просуммировать или усреднить векторы всех атомов. Но в современных архитектурах используют более хитрые механизмы, включая внимание к критическим областям (где-то вроде RepE, но для графов).

Где спрятаны подводные камни

Звучит как серебряная пуля? Почти. Но есть нюансы, о которых не пишут в пресс-релизах.

Проблема 1: Далеко не нулевой старт. Чтобы обучить GNN, нужен датасет из тысяч DFT-расчётов. Каждый такой расчёт стоит $100-1000 в эквиваленте вычислительных ресурсов. Плюс экспертиза, чтобы эти расчёты правильно поставить.

Проблема 2: Экстраполяция vs интерполяция. GNN блестяще интерполирует внутри области, на которой обучена. Но попробуйте предсказать свойства материала с атомами, которых не было в тренировочных данных, или при температурах на порядок выше — получите красивый, но абсолютно неверный результат.

Проблема 3: Чёрный ящик с атомами. Почему модель предсказывает, что фаза А стабильнее фазы Б? «Потому что веса в слое 7 такие». Это серьёзная проблема для принятия решений в ядерной энергетике, где ошибка стоит миллиарды и человеческие жизни. Методы интерпретируемости вроде Mechanistic Interpretability для графов только начинают развиваться.

Что это меняет для ядерной энергетики

Конкретно сейчас — уже меняет три вещи:

  1. Ускорение разработки материалов для реакторов IV поколения. Вместо 10 лет на подбор состава и тестирование — 1-2 года. Особенно для материалов, работающих в экстремальных условиях (жидкометаллические теплоносители, соли-расплавы).
  2. Предсказание поведения при авариях. Что будет с оболочкой твэла при потере теплоносителя? Раньше это проверяли в дорогих и опасных экспериментах. Теперь можно смоделировать тысячи сценариев.
  3. Поиск материалов для трансмутации отходов. Нужны матрицы, которые будут тысячелетиями удерживать радиоактивные изотопы. Перебрать все возможные варианты химически было нереально. Теперь — сложно, но возможно.

И это только начало. Методология, отработанная на карбиде технеция, уже применяется к другим системам: циркониевым сплавам (оболочки твэлов), стали ODS (дисперсно-упрочнённые стали для активных зон), даже к материалам для термоядерных реакторов (где проблемы ещё сложнее, как в исследованиях DeepMind по удержанию плазмы).

А что с железом и бетоном?

Самый частый вопрос: если это так круто, почему до сих пор проектируют мосты и здания по старинке?

Ответ простой: для обычных материалов при обычных условиях классические методы работают достаточно хорошо. Зачем использовать нейросеть, если можно взять справочник и получить ответ с гарантированной точностью?

GNN в материаловедении — это инструмент для фронтьера. Для условий, где справочников нет. Для температур, при которых сталь ведёт себя как пластилин. Для давлений, сравнимых с ядром Земли. Для сред, где каждый атом бомбардируется нейтронами 14 МэВ.

Именно там, где классические методы ломаются, графовые нейронные сети показывают, зачем их вообще придумали.

💡
К 2030 году, по прогнозам того же исследования, GNN-модели станут стандартным инструментом в любом расчёте материалов для ядерных приложений. Не заменят DFT полностью, но возьмут на себя 90% скрининговых и оптимизационных задач, оставив квантовую химию для финальной валидации критических решений.

Можно ли повторить это в гараже?

Технически — да. Практически — нет.

Код для подобных расчётов есть в открытом доступе (например, пакеты типа MACE, Allegro, NequIP). Даже датасеты по некоторым материалам публикуют. Но:

  • Нужны тысячи GPU-часов для обучения. Не домашний RTX 4090, а кластер из десятков A100/H100.
  • Нужны эксперты и по материаловедению, и по машинному обучению. По отдельности они бесполезны.
  • Нужны валидационные эксперименты. Без них никто не поверит вашим предсказаниям, особенно в ядерной отрасли.

Но если вы всё же хотите попробовать — начинайте с малого. Не с карбида технеция, а с чего-то вроде графена или кремния. Датасеты есть, код есть, инфраструктура для распределённого обучения тоже. Главное — не ожидайте, что через неделю вы предскажете материал для термоядерного реактора.

А вот через год регулярной работы — вполне возможно. Потому что это уже не хайп, а рабочий инструмент. Который, кстати, работает в 1000 раз быстрее того, что было раньше. И это не маркетинг, а физика, записанная в весах нейросети.