Симуляция мозга мыши на Fugaku: петафлопсные вычисления и будущее ИИ | 2026 | AiManual
AiManual Logo Ai / Manual.
26 Янв 2026 Новости

Мозг мыши на 442 петафлопсах: как симуляция на Fugaku заставляет пересмотреть всё, что мы знали об ИИ

Детальная симуляция коры мозга мыши на суперкомпьютере Fugaku меняет нейронауку и ставит под сомнение текущие архитектуры ИИ. Что это значит для GPT-5 и нейромо

442 петафлопса против одного грамма мозговой ткани

В начале января 2026 года команда из RIKEN загрузила в суперкомпьютер Fugaku модель, которая перевернула всё. Они симулировали 1 мм³ коры головного мозга мыши. Это звучит смешно, пока не узнаешь детали.

В этом кубическом миллиметре - 100 000 нейронов, 1 миллиард синапсов, десятки типов ионных каналов, глия, внеклеточное пространство. И всё это не абстрактные «юниты», а биофизически точные модели, где каждый канал натрия или калия описывается дифференциальными уравнениями Ходжкина-Хаксли. Fugaku, второй по мощности компьютер в мире на 26.01.2026, потратил на симуляцию одной секунды реального времени 12 часов вычислений на 82 944 процессорных ядрах.

Ключевой результат: даже для такого крошечного объёма тканей нам нужны сотни петафлопс. Полный мозг мыши (1000 раз больше) потребует экзафлопсных систем, которых ещё нет. Мозг человека? Забудьте на ближайшее десятилетие.

Почему эта симуляция - плевок в лицо современному ИИ

Вот что бесит. Мы строим GPT-5 (или как там сейчас называется последняя версия от OpenAI на начало 2026), модели с триллионами параметров, которые «понимают» контекст, генерируют код, пишут стихи. А потом смотрим на симуляцию реального нейрона и понимаем: наш ИИ работает на принципах, которые мозг использует разве что в качестве вспомогательного механизма.

Трансформеры? Внимание? Это всё хорошо для обработки последовательностей. Но мозг мыши не обрабатывает последовательности. Он живёт в непрерывном времени, где каждый нейрон - это аналоговый компьютер, решающий сложнейшие дифференциальные уравнения в реальном времени. И делает это с энергопотреблением в 20 ватт. Fugaku на эту симуляцию потратил мегаватты.

💡
Сравнение энергоэффективности убийственное: мозг мыши - ~10^-15 джоулей на синапс за операцию. Самый эффективный ИИ-чип 2026 года (например, последние нейроморфные процессоры от Intel Loihi 3) - ~10^-12 джоулей. Разница в тысячу раз. И это при том, что наш чип решает задачи попроще.

Что мы узнали и почему это важно для разработчиков

Данные симуляции на Fugaku (опубликованные в Nature Neuroscience 15.01.2026) показали несколько вещей, которые должны заставить архитекторов ИИ пересмотреть свои подходы.

  • Шум - это фича, а не баг. В моделях ИИ мы всеми силами боремся с шумом, используем дропаут, регуляризацию. В реальном мозге ионные каналы работают стохастически. Каждый потенциал действия - это вероятностное событие. И этот шум, как оказалось, критически важен для обучения и пластичности.
  • Время - первичная величина. В современных LLM время существует только как позиционное кодирование. В мозге временные задержки между спайками несут информацию. Симуляция показала, что точность временного кодирования в реальных нейронах достигает микросекунд. Ни одна модель ИИ сегодня не работает с такой временной точностью.
  • Глия - это не просто «клей». Около 50% объёма в симуляции занимали глиальные клетки. Они не генерируют потенциалы действия, но регулируют концентрацию ионов, очищают нейромедиаторы, управляют кровотоком. Фактически, это распределённая система управления питанием и «сборкой мусора». В ИИ у нас ничего подобного нет - память и вычисления смешаны, энергопотребление линейно растёт с размером модели.

И вот самый важный вывод: мозг не оптимизирован для одной задачи. Он не «предсказывает следующее слово» или «классифицирует изображения». Он поддерживает гомеостаз, управляет телом, обрабатывает сенсорные потоки, формирует память - и всё это одновременно. Наша парадигма «обучили на датасете - развернули для inference» выглядит примитивно.

Нейроморфные вычисления: надежда или тупик?

После публикации результатов с Fugaku акции компаний, работающих над нейроморфными чипами (Intel, IBM, SynSense) подскочили на 15-20%. Все решили, что вот оно - будущее. Но есть нюанс.

Современные нейроморфные системы, даже последний Intel Loihi 3, представленный на CES 2026, - это сильно упрощённые модели. Они имитируют спайки, имеют синаптическую пластичность. Но они не воспроизводят биофизику ионных каналов, не учитывают глию, работают с дискретным временем.

«Мы строим карту, но забыли про территорию», - сказал в интервью TechCrunch один из авторов исследования. Симуляция на Fugaku показала, что упрощение нейрона до «интегрируй-и-запускай» (integrate-and-fire) теряет критически важные динамические свойства. Нейрон может работать в десятках режимов в зависимости от концентрации ионов, истории активности, состояния глии.

Параметр Биологический нейрон (с Fugaku) Нейроморфный чип (Loihi 3, 2026) Трансформер (GPT-класс)
Временное разрешение Микросекунды Миллисекунды Отсутствует (дискретные токены)
Энергия на операцию ~10^-15 Дж ~10^-12 Дж ~10^-9 Дж и выше
Пластичность Непрерывная, зависит от истории Ограниченные правила STDP Только при обучении, потом фиксировано
Параллелизм задач Естественный (гомеостаз + обработка) Ограниченный Последовательный inference

Что делать разработчику ИИ в 2026 году?

Первая реакция - отчаяние. Наши модели кажутся игрушечными. Но есть и практические выводы.

1. Время вернуться в моду. Эксперименты с временными задержками в нейросетях велись ещё в 90-х, потом их забросили. Симуляция Fugaku показывает: временные паттерны могут нести больше информации, чем статические веса. Посмотрите на работы по spiking neural networks (SNN) - они внезапно снова актуальны.

2. Шум как регуляризатор. Вместо того чтобы бороться с шумом, попробуйте сделать его управляемым параметром. Некоторые лаборатории уже экспериментируют с «ионными шумовыми слоями», которые добавляют стохастичность, похожую на работу реальных каналов.

3. Отделить память от вычислений. Мозг делает это через разные типы клеток и процессы. В ИИ мы до сих пор храним всё в весах. Архитектуры, похожие на дифференцированные системы (что-то вроде гибридных вычислений), могут стать следующим шагом.

Самое интересное: симуляция Fugaku не подтвердила ни одну из популярных теорий сознания. Ни глобального workspace, ни integrated information theory. Кора мыши работала как распределённая система без явного «центра». Это ставит под сомнение саму возможность создания «сознательного ИИ» в текущей парадигме. Если интересно, почему - читайте наш разбор машинного сознания по Фитцу.

Будущее: экзафлопсы и цифровые двойники

К 2030 году появятся первые экзафлопсные системы (в 1000 раз мощнее Fugaku). Их первым применением, скорее всего, станет симуляция полного мозга мыши. А затем - отдельных областей человеческого мозга.

Но есть ловушка: даже имея полную симуляцию, мы не обязательно поймём принципы работы. Как сказал один нейроучёный: «Симуляция мозга - это как симуляция погоды. Вы можете предсказать дождь, но не понимаете, почему облака принимают именно такую форму».

Для ИИ это значит, что слепое копирование биологии может не сработать. Но понимание принципов - непрерывное время, стохастичность, разделение памяти и вычислений - даст нам архитектуры, которые будут в тысячу раз эффективнее нынешних.

Пока OpenAI и другие гиганты инвестируют в интерфейсы мозг-компьютер, фундаментальные исследования на Fugaku показывают: возможно, нам нужно не подключать ИИ к мозгу, а сделать ИИ более мозгоподобным. Ирония в том, что для этого нам нужны суперкомпьютеры, потребляющие как небольшой город.

Мой прогноз? К 2028 году появится первая коммерческая нейросетевая архитектура, явно вдохновлённая данными с Fugaku. Она будет работать с непрерывным временем, иметь встроенные стохастические процессы и какую-то форму «глиальной подсистемы» для управления ресурсами. И она будет в 100 раз энергоэффективнее трансформеров.

А пока - смотрите на свои миллиарды параметров с долей смирения. Грамм мозговой ткани оказался сложнее, чем мы думали.