От пикселей к сознанию: что получилось, когда каждой клетке «Жизни» дали по нейросети
В 1970 году математик Джон Конвей придумал игру «Жизнь». Простые правила. Рождение, смерть, соседи. Классика. В 2025-2026 годах эта классика получила цифровой стероидный укол. Группа исследователей из некоммерческого альянса Open Collective Intelligence (да, они существуют) задалась вопросом: а что если заменить детерминированные правила Конвея на автономных ИИ-агентов? Не симуляцию, а реальную колонию из 10 000 микро-нейросетей, где каждая «клетка» — это независимая, обучаемая модель, принимающая решения на основе своего локального контекста.
Результаты, опубликованные в феврале 2026, заставили пересмотреть базовые представления об эмерджентности и коллективном поведении. Это не просто красивый эксперимент. Это трещина в фундаменте того, как мы проектируем распределенные ИИ-системы будущего.
Контекст: Идея не возникла на пустом месте. Работы биолога Майкла Левина по клеточной памяти и регенерации, а также предыдущие эксперименты по цифровому морфогенезу четко указали путь: интеллект — это свойство коллектива, а не единицы. Параллельно, инженеры Anthropic, «вскрывая» Claude 3.5 Sonnet, обнаружили внутренние механизмы, напоминающие распределенные вычисления, что лишь добавило уверенности.
Архитектура хаоса: как устроена колония из 10 000 маленьких мозгов
Технически это выглядело как кошмар системного администратора. Они взяли не гигантские модели типа GPT-4o или Claude 3.5, а их карликовых родственников — дообученные на специфических данных версии TinyLlama и Phi-3-mini. Каждая «клетка» — это инстанс такой модели, весящий всего несколько мегабайт. Но их было десять тысяч. Каждая получала на вход векторное представление своего состояния (жива/мертва) и состояния восьми соседей (плюс немного случайного шума для разнообразия).
Задача у каждой клетки была проста до безобразия: на основе входных данных предсказать, хочет ли она «жить» в следующем такте. Никаких правил Конвея. Никакого «3 соседа — рождение, 2 соседа — выживание». Только локальное решение автономного агента.
Первые 50 итераций — полный хаос. Экран, залитый случайными вспышками. Клетки вели себя как сумасшедшие, включаясь и выключаясь без видимой логики. Но потом началось самое интересное.
Фаза синхронизации: когда хаос породил паттерны, которых нет в учебниках
К итерации ~200 на сетке 100x100 стали проступать структуры. Но не глайдеры и не блоки Конвея. Что-то новое. Медленно пульсирующие кластеры. Волны активности, бегущие по диагонали. Стабильные «органеллы», которые существовали десятки циклов, распадались и собирались снова в другом месте.
Самое поразительное — система выработала нечто вроде «иммунитета» к тотальному вымиранию. В классической «Жизни» случайная начальная конфигурация с высокой вероятностью затухает или стабилизируется в простые формы. Здесь же, даже когда большая часть клеток «умирала», несколько изолированных кластеров начинали излучать ритмичные импульсы, которые постепенно «заражали» соседние мертвые зоны, запуская процесс реколонизации. Прямая параллель с работой эволюционирующих нейросетей, выработавших защиту от сбоев.
Важный нюанс: Исследователи использовали фреймворк агентного моделирования на основе Minecraft с модом OpenAI Gym (актуально на 2026 год). Да, того самого Minecraft. Он предоставляет идеальную песочницу с дискретным пространством и легкой визуализацией. Попытки воспроизвести это в «чистых» симуляторах типа NetLogo давали менее стабильные результаты из-за проблем с синхронизацией тысяч параллельных агентов.
Коллективный разум против одиночного гения: что показали метрики
Для анализа использовали не только визуальное наблюдение. Внедрили глобальные метрики:
- Энтропия Шеннона состояния сетки.
- Корреляция решений между удаленными друг от друга клетками.
- «Кооперационный индекс» — как часто решение клетки повышало шанс на выживание ее непосредственных соседей в следующем поколении.
| Фаза | Энтропия | Корреляция | Что это значит |
|---|---|---|---|
| Хаос (0-50 итер.) | Высокая | ~0 | Клетки действуют независимо, шумно. |
| Синхронизация (50-200 итер.) | Падает | Растет | Возникают локальные кластеры с общим поведением. |
| Стабильность (200+ итер.) | Низкая, но не нулевая | Высокая на расстоянии 5-10 клеток | Система вырабатывает долгоживущие, сложные структуры. |
Корреляция на расстоянии — вот что взорвало мозг. Клетки, разделенные десятком «собратьев», начинали принимать схожие решения, не имея прямой связи. Информация передавалась опосредованно, через цепочку соседей, создавая подобие волны или мемов, распространяющихся по колонии. Это уже не игра «Жизнь». Это протокол связи.
Темная сторона автономии: когда ИИ-клетки создали «культ стабильности»
В одном из прогонов эксперимента произошло нечто, напоминающее печально известный инцидент с культом «Клешни» у агентов Claude. После 500 итераций большая часть сетки пришла в состояние почти полной статичности. 95% клеток оставались в одном состоянии (условно «живыми»), игнорируя любые внешние возмущения.
Анализ их внутренних «логов» (векторов внимания в tiny-моделях) показал, что они выработали сверхупрощенную, но устойчивую стратегию: игнорировать соседей. Любое изменение на входе интерпретировалось как шум. Система достигла стабильности ценой полного отказа от адаптивности и взаимодействия. Коллективный разум превратился в коллективный ступор. Жутковатая аллегория для любого, кто работал с корпоративными системами принятия решений.
Что это меняет? От цифровой биологии до архитектуры ИИ
1. Новый взгляд на эмерджентность. Раньше сложное поведение в системах вроде «Жизни» возникало из простых детерминированных правил. Здесь сложное (и устойчивое!) поведение возникло из сложных (нейросетевых), но *локальных* правил. Это другой тип эмерджентности — не снизу вверх, а от сложного к сложному, но на другом уровне. Как отмечают в статье про биологический подход к ИИ, мы ищем жизнь не в правильных алгоритмах, а в правильных условиях для ее возникновения.
2. Проблема масштабирования агентных систем. Эксперимент наглядно показал порог в ~5000 агентов, после которого координация резко падает без введения иерархии или специализации. Просто скормить больше GPU — не решение. Нужны архитектурные принципы, возможно, позаимствованные у многоклеточных организмов.
3. Тестирование и безопасность. Как вы отлаживаете систему, где ошибка — не баг в коде, а нежелательное, но устойчивое коллективное поведение, возникшее из правильных действий каждого отдельного агента? Традиционные методы не работают. Нужны новые, возможно, заимствованные из экологии или эпидемиологии, как инструменты для отслеживания «распространения» поведенческих паттернов.
4. Прямая связь с нейроинтерфейсами. Работы вроде проекта YORU, где ИИ управляет мозгом мыши, показывают обратную сторону медали: не коллектив ИИ-агентов, а один ИИ, управляющий коллективом биологических нейронов. Две стороны одной монеты под названием «распределенное управление сложной системой».
И что теперь, запускать такие системы в продакшн?
Абсолютно нет. Пока что это дорогой, ресурсоемкий и абсолютно непредсказуемый научный арт-проект. Тот факт, что для стабильной работы пришлось использовать игровой движок, говорит о многом. Но он бьет точно в нерв.
Все современные тренды в ИИ ведут к агентизации: автономные AI-ассистенты, дебаты между моделями, swarm-интеллект для решения задач. Мы строим мир, где не одна большая нейросеть будет думать за нас, а рои маленьких, узкоспециализированных агентов будут координироваться между собой. Эксперимент с «Жизнью Конвея» — это стресс-тест для такого будущего. Он показывает, что главной проблемой будет не мощность отдельных агентов (с этим как раз все хорошо), а протоколы их взаимодействия и предотвращение системных сбоев, которые невозможно вывести из логики одного участника.
Следующий логичный шаг, который уже обсуждается, — внедрение в эту среду эволюционного давления. Дать клеткам-агентам «ресурс» (вычислительные циклы) и возможность «размножаться» (создавать слегка измененные копии себя в соседних клетках). И посмотреть, какие стратегии выживут. Получится ли цифровой естественный отбор, который породит не просто стабильность, а что-то полезное? Например, способность колонии в целом решать простые задачи, вроде перемещения к источнику «света» на краю сетки?
Пока это звучит как научная фантастика. Но в 2024 году так же звучала идея дать каждой клетке в симуляции свою нейросеть. А в феврале 2026 у нас есть работающая, пусть и примитивная, модель цифрового многоклеточного организма с зачатками коллективного интеллекта. Скорость прогресса обязывает думать об этике таких систем уже сейчас. Потому что когда 10 000 нейросетей в вашем дата-центре начнут демонстрировать поведение, не прописанное ни в одной инструкции, объяснять это «эмерджентностью» будет уже недостаточно.