Вопросы закончились. Что дальше?
Задавать вопросы ИИ стало так же привычно, как гуглить. GPT-5.1 от OpenAI умеет быть «теплее», Claude 4.5 от Anthropic проходит собеседования за кандидатов, а китайские Qwen и Kimi дышат в спину гигантам. Но что, если следующий рубеж — не в том, чтобы лучше отвечать, а в том, чтобы лучше координировать?
Именно на эту ставку поставил стартап Humans&, который на прошлой неделе закрыл раунд на $40 млн от Sequoia и a16z. Их тезис звучит дерзко: «Эра вопрос-ответ подходит к концу. Будущее за AI, который управляет сложным взаимодействием между людьми».
Контекст: В январе 2026 года рынок LLM перегрет. Новые версии моделей (GPT-5.1, Claude 4.5, Gemini Ultra 2.5) борются за доли процента в бенчмарках. Инвесторы ищут следующую большую идею за пределами «более умного чата».
Что такое «модель для социального интеллекта»? Не то, что вы подумали
Основатели Humans& — экс-инженеры Meta и DeepMind — избегают слова «искусственный общий интеллект» (AGI). Вместо этого они говорят о «фондовой модели для координации» (Coordination Foundation Model).
Проще? Нет. Но идея такая: текущие LLM обучены на диалогах, где есть один умный участник (помощник) и один пассивный (пользователь). Они плохо справляются с ситуациями, где несколько равноправных сторон с конфликтующими целями должны что-то решить.
Технически это означает сдвиг с обучения на текстах к обучению на транскриптах совещаний, переговоров, парламентских дебатов и даже — что интересно — стендап-выступлений (там есть тонкая координация реакции зала).
Почему сейчас? Потому что мультимодальность — тупик, а физика — не панацея
Тренд 2024-2025 годов — мультимодальные модели. Все ждали, что GPT-5 «с глазами» станет разумнее. Не стал. Как мы писали ранее, добавление зрения не решает проблему отсутствия здравого смысла.
Другой тренд — «мирные модели», ИИ, которые думают физикой. Они отлично предсказывают, упадет ли стакан, но беспомощны в предсказании, обидится ли коллега, если этот стакан поставить на его документы.
Социальный интеллект — это последний рубеж. И он упирается в фундаментальную проблему: текущие LLM нестабильны. Как мы знаем из разбора ошибок OpenAI и Google, одна и та же модель в понедельник может поддержать вашу идею, а в среду — раскритиковать. Для координации людей такая непредсказуемость — смерть.
Кому это нужно? Сценарии, которые пугают и завораживают
Humans& тестирует прототипы в трех областях:
- Корпоративные решения: Не просто «умная повестка», а динамический модератор совещаний, который отслеживает, кого перебили, кто затаил обиду, и предлагает сбалансировать высказывания.
- Публичная политика: Моделирование общественных дебатов по спорным законам. Звучит утопично, пока не вспомнишь, как ИИ уже манипулирует политическими взглядами. Лучше пусть координирует, чем манипулирует.
- Образование: Групповые проекты в университетах, где ИИ выступает фасилитатором, а не отвечающим за всех ботом.
Предупреждение: Такая модель требует обучения на чрезвычайно чувствительных данных — записях реальных человеческих взаимодействий. Проблемы приватности и смещений здесь возрастают на порядок. ИИ, который координирует, должен понимать социальные иерархии, но не укреплять их.
Техническая кухня: как это может работать
Основатели расплывчаты в деталях (патентная война на подходе), но из интервью и вакансий складывается картина:
- Архитектура «многоагентность + судья»: Не одна большая модель, а ансамбль более узких агентов, каждый из которых моделирует интересы одной стороны. Отдельный модуль-«судья» ищет компромисс. Похоже на платформы для дебатов моделей, но с фокусом на результат, а не на победу в споре.
- Обучение с подкреплением на социальных исходах: Награда модели — не «правильный ответ», а метрики вроде «удовлетворенность всех сторон», «скорость достижения консенсуса», «снижение энтропии конфликта».
- Контекст длиной в целую встречу: Требуются контекстные окна в миллионы токенов, чтобы учитывать всю динамику группового обсуждения.
Самое сложное — создать датасет. Текстов из интернета недостаточно. Нужны аннотированные записи реальных социальных взаимодействий с разметкой: кто кого перебил, какая реплика снизила напряжение, какая — обострила конфликт.
Что может пойти не так? (Практически всё)
Скептиков много. Главные риски:
- ИИ усилит самых громких, а не самых умных. Модели уже судят по диалекту и манере речи. В группе они могут начать «затыкать» тихих, но компетентных участников.
- Координация ради координации. ИИ может стремиться к гладкому, бесконфликтному процессу, выхолащивая любые спорные, но продуктивные идеи. Консенсус — не всегда благо.
- Новая форма манипуляции. Тот, кто контролирует параметры «справедливости» в модели, получает тонкий инструмент влияния на групповые решения.
Итог: стоит ли следить за Humans&?
Безусловно. Даже если их конкретный продукт провалится, тренд они обозначили верно. Гонка за размерами моделей и мультимодальностью выдыхается. Следующие $40 миллиардов в AI будут вложены не в то, чтобы модели лучше думали, а в то, чтобы они лучше помогали думать вместе.
Ирония в том, что для создания ИИ с социальным интеллектом нам сначала придется решить кучу наших собственных социальных проблем: приватность, смещения, этика. Может быть, в процессе мы и сами станем немного лучше координироваться. Или как минимум поймем, насколько это сложно.
Прогноз на 2027: появятся первые open-source аналоги модели координации. И они будут такими же предвзятыми и неуклюжими, как первые GPT. Но именно с этого начнется настоящая революция — не в интеллекте машин, а в организации людей.