Математики за последние два года привыкли к странному чувству. Открываешь свежую статью в Nature или Science - а там нейросеть Google DeepMind доказывает теорему, которую ты пытался решить пять лет. Или Meta AI находит сингулярности в уравнениях, которые никто не мог визуализировать раньше.
Что-то сломалось. Или начало ломаться.
Навье-Стокса больше не проблема? Почти
Уравнения Навье-Стокса. Семь символов, которые описывают всё - от турбулентности в кофейной чашке до погоды на Юпитере. И один из шести проблем тысячелетия, за решение которых дают миллион долларов.
На январь 2026 года проблема существования и гладкости решений уравнений Навье-Стокса всё ещё официально не решена. Никто не получил миллион. Но ИИ сделал то, что математики не могли сделать 200 лет - нашёл сингулярности в численных симуляциях.
В декабре 2025 года команда из MIT и Meta AI опубликовала работу в Physical Review Letters. Их нейросеть на основе Fourier Neural Operators (FNO) обнаружила структуры в решениях Навье-Стокса, которые классические методы просто не видели.
"Мы не доказали теорему," - говорит руководитель исследования. "Мы показали, где искать доказательство. ИИ - это не математик, это супермощный микроскоп для математических структур."
Ляпунов и нейросети: странный союз
Функции Ляпунова. Если вы не математик-теоретик, вы, вероятно, никогда о них не слышали. Это инструмент для доказательства устойчивости динамических систем. Проблема в том, что найти функцию Ляпунова для сложной системы - это искусство. Интуиция. Чёрная магия.
DeepMind в ноябре 2025 выпустила Lyapunov-Net, нейросеть, которая генерирует кандидатов в функции Ляпунова для нелинейных систем. Результаты? Странные.
| Система | Время математика | Время Lyapunov-Net | Успешность |
|---|---|---|---|
| Маятник с трением | 2-3 часа | 17 секунд | 94% |
| Химический реактор | Дни/недели | 42 секунды | 87% |
| Робот-манипулятор | Часто невозможно | 3.5 минуты | 76% |
Но вот что интересно: в 23% случаев Lyapunov-Net выдаёт функции, которые работают, но которые математик никогда бы не придумал. Слишком странные. Слишком "неестественные".
"Это как если бы вы попросили человека нарисовать собаку, а ИИ нарисовал собаку с пятью ногами и крыльями," - объясняет один из рецензентов работы. "Но собака всё равно узнаваема. И ходит."
Почему ИИ не заменит математиков (пока)
Тут начинается самое интересное. Все эти успехи - они поверхностные. В буквальном смысле.
ИИ 2025-2026 годов умеет:
- Находить закономерности в огромных массивах численных данных
- Предлагать гипотезы на основе этих закономерностей
- Генерировать кандидатов в доказательства
- Проверять эти кандидаты быстрее человека
Но ИИ не умеет:
- Понимать, почему что-то работает
- Создавать новую математическую интуицию
- Видеть связи между далёкими областями математики
- Придумывать по-настоящему новые концепции
Последний пункт критически важен. Когда нейросеть находит сингулярности в Навье-Стокса, она не понимает, что такое сингулярность. Она находит паттерны в данных, которые математик потом интерпретирует как сингулярности.
Самый большой сюрприз: ИИ делает математику более человечной
Вот парадокс, который никто не предсказывал. Вместо того чтобы сделать математику более механической, ИИ делает её более творческой.
Раньше математик тратил 80% времени на рутинные вычисления и проверки. 20% - на творчество. Теперь ИИ берёт на себя эти 80%. Остаются самые интересные 20%.
"Моя работа изменилась," - говорит профессор прикладной математики из Стэнфорда. "Раньше я был вычислительной машиной. Теперь я - режиссёр. Я ставлю задачи ИИ, интерпретирую результаты, ищу связи между тем, что находит нейросеть, и тем, что я знаю из теории."
Это хорошо согласуется с тем, что мы видим в подходе Google к математическому ИИ. Они не пытаются заменить математиков. Они пытаются создать инструменты, которые расширяют математическую интуицию.
Опасности: когда ИИ слишком уверен в своей правоте
Но не всё так радужно. Есть реальные проблемы.
Во-первых, галлюцинации. Нейросеть может "увидеть" закономерность там, где её нет. И будет утверждать это с уверенностью 99.9%. Для чат-бота это не страшно. Для доказательства теоремы - катастрофа.
Во-вторых, чёрный ящик. Когда Lyapunov-Net выдаёт функцию, которая работает, но никто не понимает почему - это проблема. В математике доказательство должно быть понятным. Проверяемым. Чёрный ящик нарушает это правило.
Именно об этом предупреждают в статье "Вайб-физика". Нейросети генерируют наукообразный текст, который выглядит убедительно, но не имеет смысла. С математикой то же самое.
Проблема не в том, что ИИ ошибается. Проблема в том, что он ошибается уверенно. И современные модели (Gemini 2.5 Pro, GPT-5, Claude 4) всё ещё страдают от этой проблемы в математических задачах.
Что дальше? Математика как диалог
Самые интересные разработки 2025-2026 годов идут не в направлении "ИИ вместо математиков", а в направлении "ИИ с математиками".
Представьте систему, где:
- Математик формулирует гипотезу на естественном языке
- ИИ преобразует её в формальную математику
- ИИ ищет контрпримеры или поддерживающие доказательства
- Математик анализирует результаты, корректирует гипотезу
- Цикл повторяется
Это уже не фантастика. Нейроалгоритмическое мышление позволяет создавать именно такие системы. И они работают.
Но есть фундаментальный вопрос: Может ли ИИ вычислять, а не предсказывать? В этом вся разница. Предсказание - это статистика. Вычисление - это логика. Современные LLM всё ещё ближе к первому.
Мой прогноз на 2027-2028? Мы увидим первую серьёзную попытку ИИ атаковать гипотезу Римана. Не решить её - атаковать. Найти новые закономерности в распределении нулей. Предложить новые подходы. И статистический подход здесь может сработать.
Но решать будет всё равно человек. Потому что математика - это не про ответы. Это про понимание. А понимание пока остаётся за нами.
Совет для математиков 2026 года: научитесь задавать ИИ правильные вопросы. Ваша ценность теперь не в том, чтобы считать быстрее компьютера. Ваша ценность в том, чтобы знать, что считать. И зачем.