Математика против LLM: почему вычисления победят предсказания в ИИ | AiManual
AiManual Logo Ai / Manual.
02 Янв 2026 Новости

Вычислять, а не предсказывать: почему математика победит большие языковые модели

Фундаментальный спор о будущем AGI. Почему SciML и спектральные методы заменят языковые модели. Анализ экспертов и прогнозы.

Статистический тупик: когда предсказание становится блефом

Представьте, что вы спрашиваете ChatGPT, сколько будет 17×24. Он думает. Шуршит токенами. И выдает 408. Правильно? Да. Но он не решил задачу. Он угадал. Точнее, предсказал наиболее вероятную последовательность цифр на основе триллионов примеров из интернета. Это работает, пока не сломается.

А теперь спросите его про что-то, чего нет в тренировочных данных. Про новое доказательство теоремы. Про физическую модель, которую еще не придумали. Тут начинается магия галлюцинаций и уверенных ошибок. Потому что языковые модели не вычисляют. Они имитируют вычисление.

Вот вам живой пример: попробуйте заставить GPT-4 решить дифференциальное уравнение, которого нет в его датасете. Он начнет генерировать красивый, формально правильный бред. Потому что у него нет механизма решения — только механизм подражания решениям.

Математика возвращается с местью

Пока OpenAI и Google гонятся за параметрами (триллионы, давайте еще триллионы!), в лабораториях происходит тихая революция. Ее называют Scientific Machine Learning (SciML) или вычислительный ИИ. Суть проста до боли: вместо того чтобы предсказывать следующий токен, модель должна решать уравнения.

Звучит скучно? Это и есть настоящая работа. Физики не предсказывают траекторию спутника — они вычисляют ее по законам Ньютона. Химики не угадывают структуру молекулы — они решают уравнение Шрёдингера. Математики не генерируют доказательства — они строят логические цепочки.

💡
Мы уже писали про попытки ML решить гипотезу Римана. Результат? Ноль. Потому что статистические закономерности в распределении нулей — это не доказательство. Это наблюдение.

Возьмите проект WeDLM от Tencent. Они не стали делать еще одну Llama. Они построили архитектуру, которая в 6 раз быстрее Qwen на математических задачах. Как? Убрали лишнее. Сфокусировались на вычислениях, а не на болтовне. Мы разбирали их подход — там почти нет магии, только жесткая математика.

1 Что ломается в LLM при столкновении с математикой

Проблема в категориальной ошибке. Языковые модели работают с дискретными токенами. Математика — непрерывна. Переводя задачу из непрерывного пространства в дискретное, мы теряем информацию. Всегда.

# Как НЕ надо делать: подражание решению
# LLM генерирует что-то похожее на код

def solve_equation_bad():
    # Это выглядит правильно, но не работает
    x = "решение"
    print(f"Ответ: {x}")
    return x

# Как надо: настоящее вычисление
import numpy as np
from scipy.integrate import solve_ivp

def solve_ode_properly():
    # Решаем дифференциальное уравнение
    def ode_system(t, y):
        return -0.5 * y
    
    sol = solve_ivp(ode_system, [0, 10], [1], dense_output=True)
    return sol.y[0][-1]  # Конкретное число, не текст

Разница очевидна? В первом случае модель производит текст про решение. Во втором — алгоритм производит решение. Это принципиально разные вещи.

Спектральные методы: оружие против статистики

Если вы не слышали про спектральные методы в машинном обучении, вы пропустили самое интересное. Вместо обучения нейросети аппроксимировать функцию, спектральные методы раскладывают ее в ряд по базисным функциям. Как ряд Фурье, только для всего.

Преимущество? Гарантированная точность. Скорость. Интерпретируемость. Нейросеть — черный ящик. Спектральное разложение — прозрачная математическая конструкция. Вы точно знаете, почему она работает. Или не работает.

Подход Что делает Где ломается Энергозатраты
Большие языковые модели Предсказывает следующий токен На новых данных, логике, математике Чудовищные (мегаватты)
Вычислительный ИИ (SciML) Решает уравнения Почти нигде (если задача корректна) Скромные (киловатты)
Гибридные системы LLM + символьная математика На интеграции компонентов Все еще высокие

Посмотрите на таблицу. Видите тренд? Там, где нужна надежность, а не болтовня, вычислительные методы выигрывают по всем параметрам. Кстати, о надежности: нестабильность LLM — это не баг, это фича их архитектуры. Случайность зашита в ДНК.

Эксперты уже сбегают с тонущего корабля

Поговорите с исследователями из серьезных лабораторий (не из маркетинговых отделов). Они скажут одно: «LLM — это тупиковая ветвь для AGI». Почему? Потому что общий искусственный интеллект должен понимать мир, а не имитировать понимание.

Йошуа Бенжио, один из крестных отцов глубокого обучения, в последних интервью говорит о необходимости «символических компонентов» в ИИ. Джеффри Хинтон признает, что текущие архитектуры не способны к настоящему reasoning. Эти люди не глупее нас с вами.

Забавный факт: многие команды, которые делают прорывы в математическом ИИ, пришли из физики и вычислительной математики, а не из NLP. Они смотрят на задачу с другой стороны. Не «как сгенерировать текст про решение», а «как решить задачу».

Вспомните скандал с Solar-100B. Южнокорейцы пытались сделать «суверенный ИИ», а получили переупакованный китайский GLM. Почему так вышло? Потому что создать модель с нуля — невероятно сложно. А создать вычислительный фреймворк — сложно по-другому. Там нельзя скопировать.

Что будет через пять лет? (Спойлер: меньше болтовни)

Прогнозы — дело неблагодарное. Но тренды видны уже сейчас.

  • Специализация победит универсальность. Вместо одной модели-оркестра будут десятки узкоспециализированных вычислительных модулей. Один для физики, другой для химии, третий для доказательства теорем.
  • Языковые модели станут интерфейсом. Их задача — переводить запросы пользователя на язык математики. Как компилятор переводит код на язык процессора. Сами вычисления будут делать другие системы.
  • Энергоэффективность станет главным критерием. Тренировка GPT-5 съест энергию небольшой страны. Вычислительные методы на порядки эффективнее. Когда закончится дешевое электричество, выбор станет очевиден.

Уже сейчас появляются фреймворки вроде KEF, которые пытаются прокачать reasoning у LLM. Мы сравнивали их с OpenAI o3. Вывод? Все эти надстройки — костыли. Костлявая рука математики рано или поздно снимет их все.

Что делать прямо сейчас? Если вы разработчик — учите не PyTorch, а численные методы. Не трансформеры, а спектральный анализ. Если вы инвестор — смотрите в сторону компаний, которые делают SciML, а не очередной ChatGPT-клон. Если вы пользователь — требуйте от ИИ не красивых слов, а точных результатов.

Математика не прощает невежества. Она молча ждала, пока индустрия наиграется в статистические игрушки. Теперь ее очередь.