Зачем OpenAI скрывает лучшие промпты?
В конце 2025 года в сети появилась утечка закрытого руководства по промпт-инжинирингу от OpenAI, предназначенного для внутреннего использования и партнёров. Документ содержит конкретные рекомендации по взаимодействию с GPT-5.2 — самой продвинутой на тот момент моделью компании.
Почему эти знания были под замком? Ответ прост: правильно составленный промпт увеличивает эффективность модели на 30-50%, что напрямую влияет на удовлетворённость пользователей и, как следствие, на монетизацию. Теперь у вас есть доступ к этим секретам.
Три столпа эффективного промпта по версии OpenAI
Согласно утекшему документу, все рабочие промпты для GPT-5.2 строятся на трёх ключевых элементах: Роль, Контекст и Ограничения. Это перекликается с секретным промпт-шаблоном OpenAI, о котором мы уже писали.
1 Роль (The Who)
Модель должна чётко понимать, кем она является в данном диалоге. Это не просто «ты — полезный ассистент», а детальное описание экспертизы, тона и целей.
Ты — старший инженер по data science с 10-летним опытом в финтехе. Твоя специализация — предиктивная аналитика для выявления мошеннических операций. Ты говоришь профессионально, но без излишнего жаргона, чтобы объяснять сложные концепции менеджерам продукта.2 Контекст (The Why и The How)
Здесь вы задаёте рамки задачи: какова конечная цель, в каких условиях работает модель, какие данные или инструменты у неё есть. Контекст предотвращает «галлюцинации» и уводит модель от общих рассуждений к конкретике.
Пользователь — аналитик в банке. У него есть CSV-файл с 50 000 транзакций за последний месяц. Ему нужно выявить аномалии и сегментировать клиентов по риску. У тебя есть доступ только к предоставленным данным, ты не можешь запрашивать дополнительную информацию. Предоставь пошаговый план и фрагмент кода на Python для начального этапа.3 Ограничения (The What Not)
Это «красные линии» для модели: что она не должна делать, какие темы запрещены, в каком формате следует выдавать ответ. Ограничения критически важны для безопасности и соответствия задачам.
Не предлагай гипотетические сценарии, не упоминай конкурирующие банки. Не генерируй персональные данные, даже синтетические. Ответ должен быть структурирован: краткое резюме, пошаговый план, код (если применимо), следующие шаги для пользователя.Почему именно такая структура?
OpenAI в документе объясняет, что GPT-5.2, как и другие современные LLM, — это продвинутый system prompt. Модель не «понимает» задачу в человеческом смысле, а вычисляет наиболее вероятное продолжение текста на основе контекста окна.
- Роль сужает вероятностное пространство, заставляя модель «играть» конкретного эксперта, а не давать общие советы.
- Контекст заполняет окно внимания релевантной информацией, вытесняя случайные ассоциации.
- Ограничения явно указывают на низковероятные, но нежелательные токены (например, разглашение коммерческой тайны), которые модель иначе могла бы сгенерировать.
Секретный промпт для генерации кода
Один из самых ценных разделов утечки — промпты для программирования. OpenAI рекомендует следующий подход для задач, связанных с кодом:
Ты — senior software engineer, специализирующийся на [Язык/Фреймворк]. Твоя задача — написать [Функция/Модуль] для [Описание задачи]. Код должен быть: 1. Производственным — с обработкой ошибок, логированием и конфигурацией через env-переменные. 2. Эффективным — O(n log n) или лучше по времени и памяти, где это возможно. 3. Читабельным — с комментариями для сложных алгоритмов, соблюдением [PEP8/Стандарты проекта]. Предоставь: 1. Полный код. 2. Краткое объяснение архитектурных решений. 3. Юнит-тест для критической функции. Не используй сторонние библиотеки, кроме [Список разрешённых]. Не предлагай псевдокод — только готовый к запуску код.Такой промпт даёт на 40% более качественный результат по сравнению с «Напиши код для...». Он работает, потому что явно задаёт критерии качества (production-ready, эффективность, читабельность), которые GPT-5.2 иначе может проигнорировать.
Как адаптировать эти промпты под другие модели?
Принципы остаются теми же, но детали могут меняться:
- Для локальных моделей кодирования добавляйте больше примеров прямо в промпт (few-shot learning).
- Для open-source моделей, особенно неазиатских open-source моделей для агентов, явно прописывайте формат вывода, так как они менее устойчивы к отклонениям.
- Учитывайте контекстное окно. Если оно мало (как у Genesis-152M-Instruct), используйте более сжатые формулировки.
Что это значит для будущего промпт-инжиниринга?
Утечка подтверждает тренд: промпт-инжиниринг становится стандартизированной дисциплиной. Компании like OpenAI и Google создают внутренние best practices, которые со временем просачиваются в публичное поле.
Это часть более широкой эволюции AI-агентов — от простых промптов до сложных stateful-систем. Но основы, как видите, остаются прежними: ясность, контекст и контроль.