Humans& и модель социального интеллекта: новая парадигма AI в 2026 | AiManual
AiManual Logo Ai / Manual.
25 Янв 2026 Новости

Humans&: ИИ, который не отвечает, а координирует. Зачем нам модель социального интеллекта в 2026 году?

Стартап Humans& привлек $40 млн на создание AI для координации людей. Что такое модель социального интеллекта и почему она важнее GPT-5.1?

Вопросы закончились. Что дальше?

Задавать вопросы ИИ стало так же привычно, как гуглить. GPT-5.1 от OpenAI умеет быть «теплее», Claude 4.5 от Anthropic проходит собеседования за кандидатов, а китайские Qwen и Kimi дышат в спину гигантам. Но что, если следующий рубеж — не в том, чтобы лучше отвечать, а в том, чтобы лучше координировать?

Именно на эту ставку поставил стартап Humans&, который на прошлой неделе закрыл раунд на $40 млн от Sequoia и a16z. Их тезис звучит дерзко: «Эра вопрос-ответ подходит к концу. Будущее за AI, который управляет сложным взаимодействием между людьми».

Контекст: В январе 2026 года рынок LLM перегрет. Новые версии моделей (GPT-5.1, Claude 4.5, Gemini Ultra 2.5) борются за доли процента в бенчмарках. Инвесторы ищут следующую большую идею за пределами «более умного чата».

Что такое «модель для социального интеллекта»? Не то, что вы подумали

Основатели Humans& — экс-инженеры Meta и DeepMind — избегают слова «искусственный общий интеллект» (AGI). Вместо этого они говорят о «фондовой модели для координации» (Coordination Foundation Model).

Проще? Нет. Но идея такая: текущие LLM обучены на диалогах, где есть один умный участник (помощник) и один пассивный (пользователь). Они плохо справляются с ситуациями, где несколько равноправных сторон с конфликтующими целями должны что-то решить.

💡
Пример из реальности: Планирование корпоратива. Шесть отделов, три разных бюджета, два противоборствующих начальника, аллергия на морепродукты у бухгалтера. ChatGPT выдаст десять идей для мероприятий. Модель от Humans& должна смоделировать переговоры между отделами, предсказать точки конфликта и предложить протокол голосования, который всех устроит.

Технически это означает сдвиг с обучения на текстах к обучению на транскриптах совещаний, переговоров, парламентских дебатов и даже — что интересно — стендап-выступлений (там есть тонкая координация реакции зала).

Почему сейчас? Потому что мультимодальность — тупик, а физика — не панацея

Тренд 2024-2025 годов — мультимодальные модели. Все ждали, что GPT-5 «с глазами» станет разумнее. Не стал. Как мы писали ранее, добавление зрения не решает проблему отсутствия здравого смысла.

Другой тренд — «мирные модели», ИИ, которые думают физикой. Они отлично предсказывают, упадет ли стакан, но беспомощны в предсказании, обидится ли коллега, если этот стакан поставить на его документы.

Социальный интеллект — это последний рубеж. И он упирается в фундаментальную проблему: текущие LLM нестабильны. Как мы знаем из разбора ошибок OpenAI и Google, одна и та же модель в понедельник может поддержать вашу идею, а в среду — раскритиковать. Для координации людей такая непредсказуемость — смерть.

Кому это нужно? Сценарии, которые пугают и завораживают

Humans& тестирует прототипы в трех областях:

  • Корпоративные решения: Не просто «умная повестка», а динамический модератор совещаний, который отслеживает, кого перебили, кто затаил обиду, и предлагает сбалансировать высказывания.
  • Публичная политика: Моделирование общественных дебатов по спорным законам. Звучит утопично, пока не вспомнишь, как ИИ уже манипулирует политическими взглядами. Лучше пусть координирует, чем манипулирует.
  • Образование: Групповые проекты в университетах, где ИИ выступает фасилитатором, а не отвечающим за всех ботом.

Предупреждение: Такая модель требует обучения на чрезвычайно чувствительных данных — записях реальных человеческих взаимодействий. Проблемы приватности и смещений здесь возрастают на порядок. ИИ, который координирует, должен понимать социальные иерархии, но не укреплять их.

Техническая кухня: как это может работать

Основатели расплывчаты в деталях (патентная война на подходе), но из интервью и вакансий складывается картина:

  1. Архитектура «многоагентность + судья»: Не одна большая модель, а ансамбль более узких агентов, каждый из которых моделирует интересы одной стороны. Отдельный модуль-«судья» ищет компромисс. Похоже на платформы для дебатов моделей, но с фокусом на результат, а не на победу в споре.
  2. Обучение с подкреплением на социальных исходах: Награда модели — не «правильный ответ», а метрики вроде «удовлетворенность всех сторон», «скорость достижения консенсуса», «снижение энтропии конфликта».
  3. Контекст длиной в целую встречу: Требуются контекстные окна в миллионы токенов, чтобы учитывать всю динамику группового обсуждения.

Самое сложное — создать датасет. Текстов из интернета недостаточно. Нужны аннотированные записи реальных социальных взаимодействий с разметкой: кто кого перебил, какая реплика снизила напряжение, какая — обострила конфликт.

Что может пойти не так? (Практически всё)

Скептиков много. Главные риски:

  • ИИ усилит самых громких, а не самых умных. Модели уже судят по диалекту и манере речи. В группе они могут начать «затыкать» тихих, но компетентных участников.
  • Координация ради координации. ИИ может стремиться к гладкому, бесконфликтному процессу, выхолащивая любые спорные, но продуктивные идеи. Консенсус — не всегда благо.
  • Новая форма манипуляции. Тот, кто контролирует параметры «справедливости» в модели, получает тонкий инструмент влияния на групповые решения.

Итог: стоит ли следить за Humans&?

Безусловно. Даже если их конкретный продукт провалится, тренд они обозначили верно. Гонка за размерами моделей и мультимодальностью выдыхается. Следующие $40 миллиардов в AI будут вложены не в то, чтобы модели лучше думали, а в то, чтобы они лучше помогали думать вместе.

Ирония в том, что для создания ИИ с социальным интеллектом нам сначала придется решить кучу наших собственных социальных проблем: приватность, смещения, этика. Может быть, в процессе мы и сами станем немного лучше координироваться. Или как минимум поймем, насколько это сложно.

Прогноз на 2027: появятся первые open-source аналоги модели координации. И они будут такими же предвзятыми и неуклюжими, как первые GPT. Но именно с этого начнется настоящая революция — не в интеллекте машин, а в организации людей.