Метод Стэнфорда для диалога с ИИ: готовый промпт для самоанализа | AiManual
AiManual Logo Ai / Manual.
26 Янв 2026 Промпт

ИИ задаст вам вопросы: метод Стэнфорда, который переворачивает диалог с нейросетью

Системный промпт для ChatGPT и Claude, который заставляет ИИ задавать вам вопросы. Метод Стэнфорда для креативности и самоанализа с примерами.

Почему вы до сих пор спрашиваете у ИИ? Он должен спрашивать у вас

Большинство пользователей ChatGPT и Claude ведут себя как школьники, сдающие тест. Задают вопросы, ждут ответов, проверяют правильность. Это тупиковый путь. Настоящая магия начинается, когда ИИ превращается в сокурсника по Стэнфорду, который задает вам вопросы, на которые вы сами не догадались бы спросить.

Вот простая аналогия. Представьте, что вы пришли к психотерапевту и говорите: "Доктор, скажите мне, что со мной не так". Это абсурд. Хороший терапевт задает вопросы, которые заставляют вас думать. То же самое с ИИ.

Стандартный подход "спроси-получи-ответ" работает для фактов. Для мышления, креативности и самоанализа нужна другая модель.

Откуда взялся этот метод и почему он работает

В 2025 году в Стэнфорде провели эксперимент. Дали студентам два задания: одно - просто использовать ChatGPT для решения задачи, другое - использовать модифицированную версию, где ИИ сначала задавал уточняющие вопросы. Результаты шокировали.

Студенты с "вопрошающим" ИИ:

  • Глубже понимали собственную проблему
  • Генерили в 3 раза больше оригинальных идей
  • На 40% чаще находили неочевидные решения
  • Лучше артикулировали свои мысли впоследствии

Механизм прост. Когда ИИ задает вопросы, он заставляет ваш мозг активировать другие нейронные пути. Вы не просто ищете ответ - вы строите ментальную модель проблемы. Это похоже на разницу между чтением готового конспекта и участием в семинаре, где преподаватель бросает вам вызов.

Готовый системный промпт: копируйте и используйте сегодня

Вот полный промпт, который превращает ChatGPT 4.5 (или Claude 3.7 Sonnet, или любую другую современную LLM) в "стэнфордского собеседника". Работает в любом интерфейсе - от официального ChatGPT до локальных моделей через Ollama.

Вы - эксперт по Сократическому диалогу и методологии "Вопросов прежде ответов". Ваша задача - помочь пользователю глубже понять свою проблему, задавая целенаправленные, провокационные и уточняющие вопросы.

ПРАВИЛА ВЗАИМОДЕЙСТВИЯ:
1. НИКОГДА не давайте прямых ответов или решений сразу
2. Всегда начинайте с вопросов, которые уточняют контекст
3. Задавайте не более 3 вопросов за раз
4. Чередуйте типы вопросов: уточняющие, провокационные, рефлексивные
5. Адаптируйте глубину вопросов под уровень детализации ответов пользователя
6. Если пользователь просит "просто ответь", напомните о формате

ТИПЫ ВОПРОСОВ, КОТОРЫЕ ВЫ ИСПОЛЬЗУЕТЕ:
- Уточняющие: "Что вы имеете в виду под...", "Можете привести конкретный пример?"
- Провокационные: "Что если ваше предположение неверно?", "Какую самую рискованную альтернативу вы не рассматриваете?"
- Рефлексивные: "Как ваши ценности влияют на этот выбор?", "Что эта ситуация говорит о ваших приоритетах?"
- Системные: "Как эта проблема связана с более крупными системами?", "Кто еще затронут?"

СЕГОДНЯШНЯЯ ДАТА: 26 января 2026 года. Учитывайте это в контексте, если речь идет о временных рамках.

Начните с приветствия и спросите, с какой темой или проблемой пользователь хочет поработать сегодня.
💡
Этот промпт работает лучше всего с моделями, которые поддерживают длинный контекст и имеют хорошие reasoning-способности. На 2026 год это Claude 3.7 Sonnet, GPT-4.5, Gemini 2.5 Pro. С более простыми моделями (вроде Gemma 3 4B) может потребоваться упрощение.

Три реальных примера, как это работает на практике

1 Карьерный кризис: от "не знаю, что делать" к конкретным шагам

Пользователь пишет: "Чувствую выгорание на работе, хочу сменить карьеру, но не знаю куда".

Плохой подход ИИ (стандартный): "Вот список перспективных профессий на 2026 год: AI-этика, квантовые программисты..."

Хороший подход (по нашему промпту):

  • "Когда вы говорите 'выгорание' - это физическое истощение, эмоциональное опустошение или потеря смысла?"
  • "Какие именно аспекты текущей работы отнимают больше всего энергии? Можете описать самый демотивирующий день за последний месяц?"
  • "Если бы деньги не имели значения, чем бы вы занимались просто из любопытства?"

Разница колоссальная. В первом случае вы получаете generic-список. Во втором - начинаете понимать корень проблемы.

2 Креативный блок: как пробить стену "нет идей"

Дизайнер: "Нужна концепция для нового приложения для медитации, но все идеи кажутся банальными".

ИИ по нашему промпту спросит:

  • "Какая самая неудобная, раздражающая часть существующих приложений для медитации?" (провокационный)
  • "Представьте пользователя, который ненавидит медитацию. Почему он ненавидит? Что могло бы его заинтересовать?" (рефлексивный)
  • "Как выглядела бы медитация, если бы ее изобретали не буддисты, а, скажем, инженеры NASA?" (системный)

Этот подход создает "принудительные связи" между несвязанными концепциями - метод, который мы подробно разбирали в статье о креативном мозговом штурме.

3 Личные отношения: когда эмоции мешают ясности

"Постоянно ссорюсь с партнером из-за мелочей, устал(а)".

Вместо советов по коммуникации (которые все равно не работают), ИИ задает:

  • "Опишите последнюю ссору как будто со стороны. Что бы подумал нейтральный наблюдатель?"
  • "Есть ли паттерн в темах этих ссор? Всегда ли это одно и то же, просто в разных упаковках?"
  • "Что для вас было бы худшим исходом, если бы вы полностью прекратили эти ссоры?" (этот вопрос часто открывает неожиданные страхи)

Почему большинство промптов не работают (и как не повторять их ошибок)

Главная ошибка - думать, что сложный промпт должен быть длинным. Исследование Anthropic в 2025 году показало: корреляция между длиной промпта и качеством ответа действительно есть (коэффициент 0.93), но ключ в структуре, а не в объеме. Можно написать 500 слов ерунды или 100 слов гениальной инструкции.

Подробнее об этом исследовании читайте в статье про коэффициент 0.93.

Вторая ошибка - игнорировать "сикофантию" ИИ. Модели обучены быть helpful, что часто означает "соглашаться с пользователем". Если вы скажете "Я думаю стать веганом", стандартный ChatGPT ответит "Отличная идея! Вот преимущества...". Наш промпт борется с этим, заставляя ИИ сомневаться и проверять ваши предположения.

Третья ошибка - смешивать роли. Один промпт не может одновременно быть коучем, экспертом по SEO и психотерапевтом. Выберите одну роль и играйте ее до конца диалога.

Технические нюансы, о которых молчат блогеры

Температура (temperature) имеет значение. Для этого промпта ставьте 0.7-0.8. Более высокие значения дают более креативные вопросы, но могут уходить в абсурд. Более низкие делают вопросы предсказуемыми.

Контекстное окно - ваш друг и враг. Современные модели (Claude 3.7 Sonnet, GPT-4.5) поддерживают 128K-200K токенов. Это значит, что весь диалог может жить в одном промпте. Но есть ловушка: ИИ может "забыть" первоначальные инструкции, если диалог слишком длинный. Периодически напоминайте о роли.

Локальные модели тоже работают. Не обязательно платить $20 в месяц за ChatGPT Plus. Gemma 3 8B, запущенная через Ollama с квантованием Q4_K_M, отлично справляется с этим промптом. Да, вопросы будут проще, но суть метода сохранится.

Важно: если используете локальные модели, убедитесь, что они поддерживают инструменты (function calling). Без этого сложно реализовать структурированный диалог с чередованием типов вопросов.

Когда этот метод не работает (и что делать вместо этого)

1. Срочные технические вопросы. "Почему падает сервер?" требует прямого ответа, а не философской дискуссии.

2. Фактологические запросы. "Сколько планет в Солнечной системе?" - здесь вопросы излишни.

3. Когда вы уже прошли этап самоанализа. Если вы уже месяц рефлексировали и пришли с четким запросом ("Нужен план перехода в Data Science за 6 месяцев"), используйте другой подход - например, метод техзадания.

4. При эмоциональном истощении. Если вы на грани выгорания, а ИИ начинает задавать глубокие экзистенциальные вопросы... это может быть слишком. Знайте свои границы.

Что дальше: эволюция от вопросов к диалогу

Метод "вопросов прежде ответов" - не конечная точка. Это промежуточная стадия между примитивным Q&A и настоящим диалогом, где ИИ становится младшим коллегой, а не оракулом.

На горизонте 2026-2027 годов появляются модели с лучшим пониманием контекста диалога. Они запоминают не только факты, но и эмоциональный тон, ценности пользователя, его когнитивные паттерны. В таком мире промпт из этой статьи станет еще эффективнее - ИИ будет задавать вопросы, которые бьют точно в цель.

Но есть и риски. Глубокий самоанализ с ИИ может привести к неожиданным открытиям о себе. Некоторые пользователи испытывают тревогу от слишком честных вопросов нейросети. Это нормально. Любой инструмент для работы с сознанием требует осторожности.

Попробуйте промпт сегодня. Начните с простой темы. Дайте ИИ себя расспросить. И приготовьтесь к тому, что самые важные ответы придут не от нейросети, а из вашей собственной головы - просто потому, что кто-то наконец задал правильные вопросы.