ИИ проектирует чипы: Ricursive Intelligence и будущее AI hardware | AiManual
AiManual Logo Ai / Manual.
16 Фев 2026 Новости

Ricursive Intelligence: как ИИ проектирует чипы и почему это важнее, чем создавать новые процессоры

Как стартап Ricursive Intelligence использует ИИ для автоматизации проектирования чипов. Почему это важнее, чем просто создавать новые процессоры. Анализ на 16.

ИИ проектирует ИИ: замкнутый круг, который ускоряет все

Представьте, что вы пытаетесь построить дом, используя только молоток и гвозди. Примерно так выглядело проектирование чипов до 2024 года. Инженеры месяцами вручную расставляли миллиарды транзисторов, проверяли тепловые карты, оптимизировали маршруты проводников. Это было дорого, медленно и чертовски сложно.

Потом появился ИИ. Сначала он просто помогал - подсказывал, где можно сэкономить место. Потом начал предлагать альтернативные схемы размещения. А к 2026 году ситуация изменилась кардинально. Теперь ИИ не просто помогает - он проектирует. Полностью. От архитектурных решений до финальной разводки.

💡
К февралю 2026 года инструменты на базе ИИ сократили время проектирования специализированных AI-чипов (ASIC) с 18-24 месяцев до 6-9. Это не просто ускорение - это изменение правил игры.

Ricursive Intelligence: стартап, который не конкурирует с Nvidia

Вот что интересно. Когда все говорят о том, кто создаст следующий суперчип для ИИ, небольшой стартап из Кремниевой долины пошел другим путем. Ricursive Intelligence не пытается сделать процессор лучше, чем у Nvidia или AMD. Вместо этого они создают инструменты, которые помогают этим гигантам проектировать свои чипы быстрее и эффективнее.

Их подход? Использовать рекурсивное обучение. Система изучает тысячи существующих проектов чипов, выявляет закономерности, а затем применяет эти знания для создания новых архитектур. Но самое важное - она учится на собственных ошибках и успехах. Каждый новый спроектированный чип становится тренировочными данными для следующего.

Вот где парадокс: чтобы создавать более эффективные чипы для ИИ, нужно использовать... сам ИИ. Это как змея, кусающая себя за хвост, только вместо бесконечной рекурсии получается экспоненциальный рост производительности.

Почему это важнее, чем просто новый процессор?

Давайте посмотрим на цифры. Разработка нового чипа высокого класса в 2025 году стоила от 500 миллионов до 2 миллиардов долларов. Большая часть этих денег уходила на проектирование и верификацию. Человеческие часы. Ошибки. Переделки.

Инструменты вроде тех, что создает Ricursive Intelligence, сокращают эти затраты на 40-60%. Но дело не только в деньгах. Речь о времени. Пока ваш конкурент тратит два года на проектирование чипа, вы можете выпустить три итерации за тот же срок. Каждая - лучше предыдущей.

Показатель Традиционное проектирование (2024) С ИИ-ассистентом (2025) Полная автоматизация (2026)
Время разработки 18-24 месяца 12-15 месяцев 6-9 месяцев
Стоимость $500M-$2B $300M-$1.2B $200M-$800M
Энергоэффективность (средняя) Базовый уровень +15-25% +30-50%

Но есть и более глубокая причина. Современные архитектуры чипов упираются в физические ограничения. Термодинамические вычисления и новые типы памяти вроде RRAM требуют совершенно иного подхода к проектированию. Человеческий мозг с трудом справляется с такими многомерными оптимизациями. ИИ - нет.

Alpha Chip от Google: прецедент, который изменил все

В 2024 году Google представил чип TPU v5, частично спроектированный с помощью ИИ. Это был первый звонок. К 2025 году их внутренняя система уже создавала полноценные блоки чипов без человеческого вмешательства. А к началу 2026 года появились слухи о "Alpha Chip" - полностью автономно спроектированном чипе для следующего поколения ИИ.

Что в этом такого революционного? ИИ не ограничен человеческими шаблонами мышления. Он может рассматривать архитектуру чипа как многомерное пространство для оптимизации, где одновременно учитываются:

  • Тепловыделение и охлаждение
  • Энергопотребление и эффективность
  • Пропускная способность памяти (тут особенно актуальны прогрессы в RRAM)
  • Задержки передачи данных
  • Стоимость производства (особенно важная тема в свете заявлений TSMC о бесконечном спросе)

Инвестиции Nvidia: зачем гиганту маленький стартап?

Вот что действительно интересно. Nvidia, компания с рыночной капитализацией под 3 триллиона долларов, в 2025 году инвестировала в Ricursive Intelligence. Не поглотила. Не скопировала технологию. Инвестировала.

Почему? Потому что даже Nvidia понимает: следующий скачок в производительности чипов придет не от новых фабрик (хотя инвестиции в производство исчисляются сотнями миллиардов), а от новых методов проектирования. Лучше иметь доступ к технологии, которая ускоряет разработку всех твоих чипов, чем пытаться делать все самому.

К февралю 2026 года более 70% крупных полупроводниковых компаний используют или тестируют инструменты автоматизированного проектирования на базе ИИ. Через два года этот показатель приблизится к 95%.

Что это значит для индустрии ИИ?

Во-первых, барьеры для входа снижаются. Не нужно нанимать армию инженеров с 20-летним опытом. Нужны данные, вычислительные ресурсы и хорошие алгоритмы. Это открывает рынок для новых игроков.

Во-вторых, ускоряется инновационный цикл. Если раньше между идеей и ее реализацией в кремнии проходили годы, теперь это могут быть месяцы. Это особенно важно для специализированных чипов под конкретные задачи - например, для резервуарных вычислений или других экзотических архитектур.

В-третьих, меняется сама природа инженерной работы. Вместо рутинного размещения транзисторов инженеры будут заниматься более творческими задачами: определением архитектурных принципов, постановкой задач для ИИ, интерпретацией результатов. Это требует других навыков.

Темная сторона автоматизации

Конечно, не все так радужно. Когда ИИ проектирует ИИ, возникает вопрос: а понимаем ли мы, что он создает? Современные чипы - это уже черные ящики. Когда их проектирует другой черный ящик, отлаживать и исправлять ошибки становится почти невозможно.

Есть и более практическая проблема: ИИ оптимизирует то, что мы ему скажем. Если мы попросим максимизировать производительность, он может создать чип, который работает нестабильно при определенных температурах. Если попросим снизить энергопотребление - может пожертвовать надежностью. Балансировать эти параметры - искусство, которому ИИ еще только учится.

Что будет дальше? (Спойлер: все станет еще страннее)

К концу 2026 года мы увидим первые полностью автономно спроектированные коммерческие чипы. Они будут не просто созданы с помощью ИИ - они будут оптимизированы для работы с конкретными моделями ИИ. Представьте чип, созданный специально для гигантских MoE-моделей или для симуляции нейронных сетей, подобных мозгу мыши.

Но самое интересное начнется, когда ИИ начнет проектировать чипы для... проектирования чипов. Рекурсия второго порядка. Системы, которые не просто создают процессоры, а постоянно улучшают сами методы создания процессоров.

Звучит как научная фантастика? Вспомните, что говорили о глубоком обучении в 2012 году. Или о трансформерах в 2017. Технологии имеют привычку становиться реальностью быстрее, чем мы успеваем к ним привыкнуть.

Так что в следующий раз, когда услышите о новом прорывном чипе для ИИ, спросите себя: а кто его спроектировал? Человек или машина? И что это значит для следующего поколения машин, которые спроектируют чипы для нас?