Статистический тупик: когда предсказание становится блефом
Представьте, что вы спрашиваете ChatGPT, сколько будет 17×24. Он думает. Шуршит токенами. И выдает 408. Правильно? Да. Но он не решил задачу. Он угадал. Точнее, предсказал наиболее вероятную последовательность цифр на основе триллионов примеров из интернета. Это работает, пока не сломается.
А теперь спросите его про что-то, чего нет в тренировочных данных. Про новое доказательство теоремы. Про физическую модель, которую еще не придумали. Тут начинается магия галлюцинаций и уверенных ошибок. Потому что языковые модели не вычисляют. Они имитируют вычисление.
Вот вам живой пример: попробуйте заставить GPT-4 решить дифференциальное уравнение, которого нет в его датасете. Он начнет генерировать красивый, формально правильный бред. Потому что у него нет механизма решения — только механизм подражания решениям.
Математика возвращается с местью
Пока OpenAI и Google гонятся за параметрами (триллионы, давайте еще триллионы!), в лабораториях происходит тихая революция. Ее называют Scientific Machine Learning (SciML) или вычислительный ИИ. Суть проста до боли: вместо того чтобы предсказывать следующий токен, модель должна решать уравнения.
Звучит скучно? Это и есть настоящая работа. Физики не предсказывают траекторию спутника — они вычисляют ее по законам Ньютона. Химики не угадывают структуру молекулы — они решают уравнение Шрёдингера. Математики не генерируют доказательства — они строят логические цепочки.
Возьмите проект WeDLM от Tencent. Они не стали делать еще одну Llama. Они построили архитектуру, которая в 6 раз быстрее Qwen на математических задачах. Как? Убрали лишнее. Сфокусировались на вычислениях, а не на болтовне. Мы разбирали их подход — там почти нет магии, только жесткая математика.
1 Что ломается в LLM при столкновении с математикой
Проблема в категориальной ошибке. Языковые модели работают с дискретными токенами. Математика — непрерывна. Переводя задачу из непрерывного пространства в дискретное, мы теряем информацию. Всегда.
# Как НЕ надо делать: подражание решению
# LLM генерирует что-то похожее на код
def solve_equation_bad():
# Это выглядит правильно, но не работает
x = "решение"
print(f"Ответ: {x}")
return x
# Как надо: настоящее вычисление
import numpy as np
from scipy.integrate import solve_ivp
def solve_ode_properly():
# Решаем дифференциальное уравнение
def ode_system(t, y):
return -0.5 * y
sol = solve_ivp(ode_system, [0, 10], [1], dense_output=True)
return sol.y[0][-1] # Конкретное число, не текст
Разница очевидна? В первом случае модель производит текст про решение. Во втором — алгоритм производит решение. Это принципиально разные вещи.
Спектральные методы: оружие против статистики
Если вы не слышали про спектральные методы в машинном обучении, вы пропустили самое интересное. Вместо обучения нейросети аппроксимировать функцию, спектральные методы раскладывают ее в ряд по базисным функциям. Как ряд Фурье, только для всего.
Преимущество? Гарантированная точность. Скорость. Интерпретируемость. Нейросеть — черный ящик. Спектральное разложение — прозрачная математическая конструкция. Вы точно знаете, почему она работает. Или не работает.
| Подход | Что делает | Где ломается | Энергозатраты |
|---|---|---|---|
| Большие языковые модели | Предсказывает следующий токен | На новых данных, логике, математике | Чудовищные (мегаватты) |
| Вычислительный ИИ (SciML) | Решает уравнения | Почти нигде (если задача корректна) | Скромные (киловатты) |
| Гибридные системы | LLM + символьная математика | На интеграции компонентов | Все еще высокие |
Посмотрите на таблицу. Видите тренд? Там, где нужна надежность, а не болтовня, вычислительные методы выигрывают по всем параметрам. Кстати, о надежности: нестабильность LLM — это не баг, это фича их архитектуры. Случайность зашита в ДНК.
Эксперты уже сбегают с тонущего корабля
Поговорите с исследователями из серьезных лабораторий (не из маркетинговых отделов). Они скажут одно: «LLM — это тупиковая ветвь для AGI». Почему? Потому что общий искусственный интеллект должен понимать мир, а не имитировать понимание.
Йошуа Бенжио, один из крестных отцов глубокого обучения, в последних интервью говорит о необходимости «символических компонентов» в ИИ. Джеффри Хинтон признает, что текущие архитектуры не способны к настоящему reasoning. Эти люди не глупее нас с вами.
Забавный факт: многие команды, которые делают прорывы в математическом ИИ, пришли из физики и вычислительной математики, а не из NLP. Они смотрят на задачу с другой стороны. Не «как сгенерировать текст про решение», а «как решить задачу».
Вспомните скандал с Solar-100B. Южнокорейцы пытались сделать «суверенный ИИ», а получили переупакованный китайский GLM. Почему так вышло? Потому что создать модель с нуля — невероятно сложно. А создать вычислительный фреймворк — сложно по-другому. Там нельзя скопировать.
Что будет через пять лет? (Спойлер: меньше болтовни)
Прогнозы — дело неблагодарное. Но тренды видны уже сейчас.
- Специализация победит универсальность. Вместо одной модели-оркестра будут десятки узкоспециализированных вычислительных модулей. Один для физики, другой для химии, третий для доказательства теорем.
- Языковые модели станут интерфейсом. Их задача — переводить запросы пользователя на язык математики. Как компилятор переводит код на язык процессора. Сами вычисления будут делать другие системы.
- Энергоэффективность станет главным критерием. Тренировка GPT-5 съест энергию небольшой страны. Вычислительные методы на порядки эффективнее. Когда закончится дешевое электричество, выбор станет очевиден.
Уже сейчас появляются фреймворки вроде KEF, которые пытаются прокачать reasoning у LLM. Мы сравнивали их с OpenAI o3. Вывод? Все эти надстройки — костыли. Костлявая рука математики рано или поздно снимет их все.
Что делать прямо сейчас? Если вы разработчик — учите не PyTorch, а численные методы. Не трансформеры, а спектральный анализ. Если вы инвестор — смотрите в сторону компаний, которые делают SciML, а не очередной ChatGPT-клон. Если вы пользователь — требуйте от ИИ не красивых слов, а точных результатов.
Математика не прощает невежества. Она молча ждала, пока индустрия наиграется в статистические игрушки. Теперь ее очередь.