Society of Thought в ИИ: как работает совет экспертов | 2026 | AiManual
AiManual Logo Ai / Manual.
22 Янв 2026 Гайд

Society of Thought: как работает внутренний "совет экспертов" в reasoning-моделях

Объяснение Society of Thought — архитектуры reasoning-моделей с внутренним диалогом экспертов. Как работает DeepSeek-R1 и аналоги на начало 2026.

Почему ИИ до сих пор тупит на простых задачах?

Вы просите модель решить логическую задачу - и она выдает ответ, который выглядит разумно, но при проверке оказывается полной чушью. Цепочка мыслей (Chain-of-Thought) немного помогает, но модель все равно зацикливается на одной идее, не рассматривая альтернативы. Потому что думает в одиночку, как одинокий гений в башне из слоновой кости.

В 2024 году мы получили Chain-of-Thought, в 2025 - Tree of Thoughts, но к 2026 стало ясно: чтобы по-настоящему рассуждать, ИИ нужен внутренний спор, столкновение мнений. Именно так появилась архитектура Society of Thought.

💡
Если Chain-of-Thought - это монолог, то Society of Thought - это мозговой штурм с участием нескольких экспертов внутри одной модели.

От Chain-of-Thought к Society of Thought: эволюция рассуждений

Chain-of-Thought заставил модели шаг за шагом записывать свои мысли. Это работало, но упиралось в ограничение: одна цепочка, одна перспектива. Если модель пошла не туда - исправить себя она не может.

Society of Thought ломает эту парадигму. Внутри модели создается несколько "агентов" или "экспертов", каждый со своим подходом к проблеме. Один может быть скептиком, другой - оптимистом, третий - специалистом по деталям. Они спорят, дополняют друг друга, и в итоге модель приходит к более обоснованному выводу.

Это не ансамбль моделей - все происходит внутри одной архитектуры, за счет механизмов внимания и специализированных слоев. Как если бы ваш мозг одновременно рассматривал проблему с разных углов, а не последовательно.

Подробнее о том, как модели ошибаются в рассуждениях, я писал в статье "Математика галлюцинаций ИИ".

Как устроен внутренний совет экспертов: техническая кухня

Архитектура Society of Thought может реализовываться по-разному, но общая схема выглядит так:

1 Создание множества перспектив

На входе модель получает промпт. Вместо того чтобы генерировать один поток мыслей, она создает несколько "мысленных траекторий". Каждая траектория - это отдельный внутренний контекст, инициализированный с небольшими вариациями. Технически это может делаться через разные маски внимания или отдельные подмодели в рамках одной большой модели.

2 Диалог и противостояние

Эти перспективы начинают взаимодействовать. В архитектуре это реализуется через механизм cross-attention между разными "экспертами". Каждый эксперт генерирует свои аргументы, а затем "слушает" других, корректируя свою позицию. Происходит что-то вроде внутренних дебатов.

Например, для задачи "сколько дней в феврале 2026 года?" один эксперт может вспомнить правило високосного года, другой - проверить календарь, третий - усомниться в формулировке вопроса. Их диалог приводит к более точному ответу.

3 Консенсус и решение

После нескольких раундов диалога модель агрегирует результаты. Это может быть взвешенное голосование или выбор наиболее обоснованной позиции. Ключ в том, что окончательный ответ рождается из конфликта идей, а не из одного мнения.

⚠️
Внимание: Society of Thought не является отдельным алгоритмом - это архитектурный паттерн, который может быть реализован в разных вариантах. В некоторых моделях эксперты явно разделены, в других - это emergent-свойство обучения.

Если вам интересно, как заставить несколько ИИ-агентов работать вместе, посмотрите статью "Owlex: Как заставить 4 ИИ-агента работать как «совет»". Но помните: Society of Thought - это внутренний процесс, а не внешняя оркестрация.

Где это уже работает: DeepSeek-R1 и другие модели 2026 года

На начало 2026 года Society of Thought стала ключевой фичей в reasoning-моделях. DeepSeek-R1, анонсированная в 2024, использовала раннюю версию этого подхода. К 2026 году она была доработана, и такие модели, как OpenAI o4, Google Gemini 3.0 Reasoning, и многие open-source проекты, внедрили вариации Society of Thought.

Например, в DeepSeek-R1 архитектура включает "многоголовый reasoning", где разные головы внимания играют роли экспертов. В OpenAI o4, по слухам, используется гибридная система с явным разделением на критика, генератора и верификатора.

Об эволюции reasoning-моделей за последние годы я подробно писал в "Итогах 2025: От o1 к o4".

Важно: не все модели, которые называют "reasoning", используют Society of Thought. Некоторые до сих пор полагаются на улучшенный Chain-of-Thought. Но тренд ясен - будущее за многоперспективным рассуждением.

Подводные камни: когда Society of Thought ломается

Казалось бы, идеально. Но у архитектуры есть свои слабости:

  • Вычислительная стоимость: Внутренний диалог требует больше операций. Модель думает дольше и жрет больше ресурсов. Иногда это того не стоит - для простых задач достаточно Chain-of-Thought.
  • Групповое мышление: Если эксперты слишком похожи, они могут прийти к консенсусу без реального спора. Это сводит на нет всю идею.
  • Конфликт без разрешения: Эксперты могут зайти в тупик, и модель не сможет выдать окончательный ответ. Нужны механизмы арбитража.
  • Сложность отладки: Понимать, почему модель приняла решение, еще сложнее, чем с обычными LLM. Черный ящик становится еще чернее.

Для тех, кто хочет заглянуть в черный ящик, рекомендую статью о разреженных автоэнкодерах (SAE).

А если модель думает слишком много, можно ее ускорить, как описано в "GLM-4.6V думает слишком много".

FAQ: частые вопросы о Society of Thought

Чем Society of Thought отличается от ансамбля моделей?

Ансамбль - это несколько отдельных моделей, каждая из которых дает ответ, а потом результаты агрегируются. Society of Thought - это одна модель с внутренними подпроцессами, которые взаимодействуют на уровне внимания и скрытых состояний. Это дешевле и быстрее, чем запускать несколько моделей.

Можно ли использовать Society of Thought в небольших моделях?

Теоретически да, но на практике это требует тонкой настройки. Маленькие модели могут не иметь достаточной емкости для нескольких экспертов. Однако, эксперименты, подобные "Dark CoT" с Gemma 3 4B, показывают, что даже компактные модели можно научить сложному рассуждению.

Society of Thought - это окончательное решение проблемы рассуждений в ИИ?

Нет. Это важный шаг, но до человеческого уровня рассуждений еще далеко. Society of Thought улучшает качество, но не гарантирует его. Исследования продолжаются, и в 2026 году мы видим новые подходы, такие как Dialogue Tree Search и когнитивные ОС.

Что дальше: как использовать этот прорыв в своих проектах

Если вы разрабатываете приложения с ИИ, вот что стоит сделать прямо сейчас:

  1. Выберите модель с поддержкой Society of Thought. Для начала попробуйте DeepSeek-R1 или OpenAI o4, если бюджет позволяет. Для open-source есть варианты, но они могут отставать.
  2. Тестируйте на сложных задачах. Не используйте Society of Thought для простых классификаций - он избыточен. Лучше всего он показывает себя на логических задачах, планировании, анализе кода.
  3. Мониторьте затраты. Reasoning-модели дороже в использовании. Настройте лимиты и кэширование.
  4. Экспериментируйте с промптами. Иногда можно имитировать Society of Thought через промптинг, явно прося модель рассмотреть несколько точек зрения. Но это слабее, чем встроенная архитектура.

Для тестирования таких моделей рекомендую платформу AI Reasoning Lab (партнерская ссылка) - там есть готовые среды для оценки reasoning-моделей.

Если хотите глубже разобраться в архитектуре, курс Advanced LLM Design (партнерская ссылка) охватывает эти темы с практическими заданиями.

И помните: Society of Thought - не серебряная пуля. Это инструмент, который становится мощнее, когда вы понимаете его ограничения. Как и в любом совете экспертов, главное - обеспечить разнообразие мнений и здоровый конфликт.

Дальнейшее развитие reasoning-моделей, вероятно, пойдет в сторону гибридных архитектур, где Society of Thought сочетается с внешними инструментами и планированием. Следите за исследованиями - в 2026 году нас ждет еще больше прорывов.