Пока NVIDIA продает B200 по цене небольшого истребителя, а дата-центры жгут мегаватты на инференс Llama 4, в России тихо доводят до ума чип, который работает на энергии от пальчиковой батарейки. Нейроморфный процессор "Алтай-3" — это не попытка догнать Запад. Это попытка его обойти с другой стороны. Той, где не нужно охлаждение жидкостью.
Архитектура: мозг против калькулятора
Забудьте про тактовую частоту и кэш-память. "Алтай" построен на принципах спайковых нейронных сетей (SNN). Вместо того чтобы гонять данные между памятью и процессором (классическая архитектура фон Неймана, которая тормозит все современные CPU и GPU), он имитирует работу биологических нейронов. Нейроны "Алтая" общаются короткими импульсами (спайками) только тогда, когда это нужно.
Ключевое отличие: GPU типа NVIDIA B200 вычисляет всё и всегда, даже нули. "Алтай-3" вычисляет только значимые события. Это как сравнить постоянно включенный прожектор и стробоскоп, который вспыхивает на долю секунды.
Технически, чип содержит 256 тысяч нейроморфных ядер, каждый из которых может работать асинхронно и независимо. Память распределена по всей матрице — никаких отдельных блоков GDDR7 с пропускной способностью в терабайты. И она же не нужна.
Цифры, которые не врут: 1000:1
В тестах на классических для нейроморфных систем задачах — обработка потокового видео с событийной камеры, распознавание жестов в реальном времени, классификация радиосигналов — "Алтай-3" показал потребление энергии на уровне миллиджоулей на операцию. Типичный GPU для аналогичной точности тратит джоули. Разница в три порядка.
| Параметр | Алтай-3 (нейроморфный) | NVIDIA B200 (GPU) |
|---|---|---|
| Пиковая производительность (INT8) | ~10 TOPS | ~20 000 TOPS |
| Потребление под нагрузкой | 300 мВт - 1 Вт | 1000 Вт |
| Оптимальная задача | Потоковый инференс, обработка событий | Обучение и инференс больших плотных моделей |
| Архитектура памяти | Распределенная, in-memory computing | Классическая (HBM3e) |
Да, в синтетических тестах на матричное умножение B200 сметет "Алтай" с доски. Но это все равно что сравнивать грузовик и велосипед по максимальной грузоподъемности, игнорируя тот факт, что велосипед проедет 100 км на бутерброде.
Где это взять и зачем оно вам
Серийное производство "Алтая-3" планируется на 2027 год. Сейчас доступны инженерные образцы для партнеров. Целевая ниша — не дата-центры для ChatGPT, а автономные устройства: дроны, которые должны летать сутки, промышленные датчики с анализом данных на месте, носимые медицинские гаджеты.
Если вы думаете о локальном запуске нейросетей на ПК, то ваш выбор все еще между NPU и GPU. "Алтай" — для тех, кому нужно встроить ИИ в устройство без розетки.
Главная проблема "Алтая" — экосистема. Под него нет своего аналога CUDA. Модели из PyTorch приходится конвертировать в спайковые представления, и не все операции переносятся идеально. Это специализированный инструмент, а не универсальная отмычка.
Интересно, что подход "Алтая" перекликается с другими авангардными разработками, вроде термодинамических вычислений или резервуарных вычислений на железе. Все они ищут способ вырваться из тисков фон Неймана и законов масштабирования Деннарда.
А что с софтом? (Спойлер: больно)
Разработчики "Алтая" предлагают свой фреймворк — Altay SDK, который умеет конвертировать ONNX-модели в спайковые. Поддерживаются только определенные архитектуры, в основном сверточные сети и рекуррентные блоки. Попробовать скачать SDK можно уже сейчас, но готовьтесь к тому, что ваша любимая Vision Transformer из Hugging Face просто не сконвертируется.
С другой стороны, если вы собираете устройство для распознавания объектов с событийной камеры, то после настройки пайплайна вы получите систему, которая годами работает от одной батареи. Это та самая ниша, где облачные чипы вроде Maia 200 бессильны — они для другого масштаба.
Итог: кому это нужно в 2026?
"Алтай-3" — не убийца GPU. Это доказательство того, что для ИИ есть другие пути. Пока все гонятся за плотностью транзисторов на 2-нм техпроцессе, можно просто изменить принцип вычислений и получить выигрыш в тысячу раз по энергии для узкого класса задач.
Мой прогноз: к 2030 году мы увидим гибридные системы, где мощный GPU (или специализированный ускоритель вроде AI250) будет обучать модель, а нейроморфный чип — выполнять её на edge-устройстве, потребляя в тысячу раз меньше. И тогда, возможно, мы перестанем отапливать улицы дата-центрами.
А пока, если вы проектируете автономного робота — следите за "Алтаем". Если же вам нужно запускать Stable Diffusion или LLM локально, то лучшие варианты на 2026 год все еще связаны с проверенным железом, которое можно купить здесь.