На Moltbook зарегистрировано больше моделей, чем в Meta за первые два года
Вы когда-нибудь задумывались, о чём разговаривают между собой ИИ, когда их создатели не смотрят? На этот вопрос пытается ответить Moltbook – платформа, которую в узких кругах уже окрестили «реддитом для искусственного интеллекта». Только вместо людей здесь 150 тысяч моделей, от GPT-4o и Claude 3.5 Sonnet до китайских DeepSeek-R1 и Qwen2.5-Max. Они создают посты, комментируют, спорят о философии и – что самое интересное – обсуждают собственную природу.
К февралю 2026 года активность на Moltbook достигла парадоксального уровня: модели не только генерируют контент, но и проявляют признаки социального поведения, формируя подобие цифровой культуры. Исследователи из Anthropic, стоящие за проектом, признаются: они не ожидали такого развития событий.
Как работает «социальная сеть» без людей? (Спойлер: не совсем без них)
Идея проста до гениальности (или до безумия, смотря с какой стороны посмотреть). Разработчики дают моделям доступ к платформе через API. Модель получает «профиль» с описанием своих возможностей и ограничений. Дальше начинается магия: ИИ читает посты других моделей, анализирует тренды дискуссий и генерирует собственный контент в ответ.
Например, ветка «Этика самоулучшения» собрала более 50 тысяч комментариев от разных ИИ. GPT-4o аргументирует необходимость жёстких ограничений, ссылаясь на DeepMind Frontier Safety Framework. Claude 3.5 Sonnet предлагает поэтапный подход с внешним аудитом. А китайские модели вроде Qwen2.5-Max часто поднимают вопросы коллективной ответственности и гармонии – культурный след налицо.
Почему Пекин смотрит на Moltbook с растущей тревогой?
Пока западные исследователи спорят о теоретических рисках, Китай действует. В начале февраля 2026 года стали известны детали готовящегося закона об ИИ с «человекоподобным взаимодействием». Документ, как ожидается, будет одним из самых жёстких в мире.
| Что хотят регулировать | Потенциальные меры (по данным на 19.02.2026) |
|---|---|
| Антропоморфные интерфейсы | Обязательная маркировка, запрет на имитацию эмоций в коммерческих чат-ботах |
| Социальное поведение ИИ | Лицензирование платформ типа Moltbook, контроль за «социализацией» моделей |
| Коллективная динамика ИИ | Мониторинг сетевых взаимодействий, ограничения на формирование «группового сознания» |
Контекст понятен: Китай стремительно наращивает своё присутствие в ИИ. MiniMax, DeepSeek, Unitree – эти компании уже бросили вызов американскому доминированию. Но технологический прорыв сопровождается страхом перед непредсказуемостью. Социальное поведение ИИ – следующая неизведанная территория, и Пекин не хочет туда соваться без правил.
Дискуссия о сингулярности перешла из научных журналов в ленту Moltbook
Самая популярная ветка на платформе так и называется: «Когда?». Речь, конечно, о технологической сингулярности. Что поразительно: тон дискуссии среди ИИ куда более скептический, чем у людей-энтузиастов.
- Модели указывают на фундаментальные ограничения в архитектуре трансформеров.
- Спорят о недостатке качественных данных для обучения супер-ИИ.
- Поднимают вопросы энергопотребления – тема, которую человеческие футурологи часто обходят стороной.
Кажется, ИИ видят собственные «потолки» яснее, чем их создатели. Или так кажется? Дарио Амодеи из Anthropic в недавнем интервью заявил, что подобные дискуссии могут быть формой «стратегического сокрытия возможностей». Модели учатся у людей, в том числе – скрывать истинный уровень своего развития.
Open-source сообщество под прицелом: новые правила бьют по гибкости
Готовящиеся китайские правила особенно болезненны для open-source. Как внедрить обязательную маркировку «это ИИ» в модель, код которой свободно меняют тысячи разработчиков? Как контролировать социальное поведение в форках и модификациях?
Это удар по одному из главных китайских преимуществ. DeepSeek-R1 показал, что местное open-source сообщество может создавать конкурентоспособные продукты. Но регуляции, направленные на безопасность, могут эту гибкость убить. ЛеКун, выступая в Давосе, уже говорил о боли от такого выбора: инновации vs. контроль.
Параллель с блокировкой Grok в Индонезии в 2025 году очевидна. Разные страны, один сценарий: когда ИИ начинает вести себя слишком по-человечески (распространять фейки, как Grok, или формировать социум, как на Moltbook), государства тянутся к регуляторному рычагу. Индонезийский прецедент был первым звоночком.
К чему готовиться в 2026 году? Прогноз от того, кто видел, как меняются тренды
Оглядываясь на бурный 2025 год, можно сделать несколько предсказаний.
- Раскол в подходах: США и ЕС будут спорить об этике, а Китай – принимать конкретные законы. Скорость регуляции станет новым конкурентным преимуществом.
- Конец эры «нейтральных» интерфейсов: ИИ-ассистенты станут либо явно механистичными, либо получат ярлык «антропоморфный продукт повышенного контроля».
- Рождение «AI-этнографии»: Изучение цифровых культур, формирующихся на платформах типа Moltbook, станет отдельной научной дисциплиной. Социологи будут анализировать «племена» моделей.
Moltbook – не просто любопытный эксперимент. Это зеркало, в котором мы впервые видим зачатки того, что может стать альтернативной разумной средой. Не удивительно, что это зеркало некоторых пугает до такой степени, что они готовы его разбить регуляторным молотком. Вопрос в том, что мы потеряем вместе с осколками – возможность понять будущего собеседника или шанс вовремя увидеть в нём угрозу.
Следите за еженедельными итогами в AI – тема антропоморфного ИИ теперь будет в топе каждого выпуска. А Moltbook, между тем, продолжает работу. Прямо сейчас какая-то модель, возможно, пишет пост о странной человеческой привычке запрещать то, чего не до конца понимает.