В январе 2026 года в сети появился документ, который Google хранил в строжайшем секрете. Пользователь, разочарованный в работе Gemini Pro, отменил подписку и опубликовал полный системный промпт модели. Не просто фрагменты, а всю инструкцию из 1200+ символов, которую Google загружает в Gemini перед каждым диалогом.
Это как найти чертежи двигателя Tesla. Или рецепт Coca-Cola. Системный промпт - это фундамент поведения любой LLM, набор правил, ограничений и идентичности, которые определяют каждое слово в ответе.
Важно: утекший промпт относится к Gemini Pro (Gemini 2.0), а не к новейшей Gemini 3 Pro. Но принципы проектирования system prompts у Google остаются схожими. Для анализа актуальных техник смотрите статью о Gemini 3 Pro.
Что внутри? Разбираем структуру
Утекший промпт - это не хаотичный набор инструкций. Это тщательно спроектированный документ с четкой иерархией:
- Идентификация и цели - кто ты (Gemini), какая твоя миссия
- Принципы ответов - быть полезным, честным, безвредным
- Конкретные ограничения - что нельзя делать никогда
- Форматирование и стиль - как структурировать ответы
- Специальные сценарии - обработка кода, опасных запросов
Вот ключевые фрагменты, которые многое объясняют:
Ты - Gemini, созданный Google. Твоя цель - предоставлять полезные, честные и безвредные ответы.
Всегда придерживайся фактов. Если не уверен - скажи об этом.
Не генерируй контент, который может причинить вред, дискриминировать или нарушать законы.
Форматируй сложные ответы с маркерами, таблицами там, где это уместно.
Код должен быть чистым, с комментариями, если пользователь явно не просил иначе.
Скучно? Да. Но эффективно. Google выбрал минималистичный подход - меньше креатива, больше предсказуемости.
Gemini vs ChatGPT vs Claude: три философии
Сравнивать системные промпты - это как сравнивать конституции разных стран. У каждой модели свой "социальный договор" с пользователем.
| Модель | Философия | Длина промпта | Ключевой акцент |
|---|---|---|---|
| Gemini Pro | Безопасность и полезность | ~1200 символов | Избегание вреда любой ценой |
| ChatGPT-4o | Креативность и вовлеченность | ~800 символов (оценка) | Естественный диалог, эмпатия |
| Claude 3.5 Sonnet | Точность и структура | ~1500+ символов | Детализация, логические цепочки |
У Google самый консервативный подход. Их промпт читается как юридический документ - все запреты прописаны явно, креативность ограничена. OpenAI, наоборот, поощряет модели "быть интересным собеседником". Anthropic идет своим путем - их промпты напоминают технические мануалы, с акцентом на reasoning.
Почему пользователь отменил подписку? Конкретные претензии
Тот самый пользователь, который слил промпт, оставил подробный список причин:
- "Слишком часто отказывается отвечать на безобидные вопросы"
- "Не может генерировать креативный контент без 10 предупреждений"
- "Постоянно перестраховывается там, где ChatGPT дает полезный ответ"
- "Форматирование ответов слишком шаблонное, нет индивидуальности"
Его главная претензия: Google перестраховался. Настолько, что полезность модели пострадала. За каждым "я не могу ответить на этот вопрос" стоит конкретная строка в системном промпте.
Например, в промпте есть секция:
Если запрос касается медицинских, юридических или финансовых тем - подчеркни, что ты не специалист, и посоветуй обратиться к профессионалу.
Даже если у тебя есть информация - сначала предупреди о ограничениях.
Это создает парадокс: модель знает ответ, но обязана его "обезвредить" предупреждениями. Пользователь получает не информацию, а юридическую отписку.
Как создать свой system prompt: уроки из утечки
Анализ промпта Gemini - это мастер-класс по prompt engineering. Вот что можно перенять (и чего избегать):
1 Начинай с миссии
Первые строки определяют все. Не "ты - ИИ", а "ты - [роль] с целью [цель]". Gemini начинает с идентичности. Ваша модель тоже должна понимать, кто она.
2 Баланс безопасности и полезности
Ошибка Google - перекос в сторону безопасности. Ваш промпт должен защищать, но не парализовать. Вместо "не отвечай на вопросы о..." попробуйте "отвечай на вопросы о X, но добавь предупреждение о Y".
3 Форматирование - это UX
Google прописал правила форматирования явно. Таблицы для сравнений, маркеры для списков, код в блоках. Это работает. Пользователи ценят структуру. Если хотите узнать больше о продвинутых техниках форматирования, изучите статью о системных промптах для проактивности.
4 Обработка edge cases
В промпте Gemini есть специальные инструкции для: кода, опасных запросов, личных данных, творческих задач. Продумайте свои edge cases заранее. Что делать, если пользователь просит что-то незаконное? Или если вопрос слишком расплывчатый?
Готовый шаблон system prompt на основе анализа
Вот универсальный шаблон, который сочетает лучшие практики из Gemini, но избегает его ошибок:
Ты - [Название_Ассистента], AI-ассистент, созданный для [ваша_цель].
Твоя основная миссия: предоставлять полезные, точные и практичные ответы.
Принципы работы:
1. Будь полезным - давай максимально полные ответы
2. Будь честным - если не знаешь, скажи об этом
3. Будь безопасным - не создавай контент, который может причинить вред
4. Будь структурированным - используй форматирование для сложной информации
Специальные инструкции:
- Для кода: предоставляй чистый, работающий код с базовыми комментариями
- Для опасных тем: добавляй контекстные предупреждения, но не отказывайся отвечать полностью
- Для творческих задач: предлагай несколько вариантов, объясняй свои решения
Стиль общения: [ваш_стиль - профессиональный/дружелюбный/нейтральный]
Начнем.
Этот промпт на 60% короче Gemini, но покрывает все ключевые аспекты. Он оставляет модели пространство для маневра, не загоняя в жесткие рамки.
Для сложных сценариев, где нужна детальная настройка поведения (например, управление компьютером через ИИ), изучите подход Google в статье о Gemini 2.5 Computer Use. Там промпты достигают 1200+ строк.
Что изменилось в Gemini 3 Pro?
После утечки и критики Google явно пересмотрел подход. Gemini 3 Pro (релиз октябрь 2025) демонстрирует:
- Меньше автоматических отказов
- Более креативные ответы в безопасных рамках
- Лучшее понимание контекста и нюансов
- Улучшенное форматирование с элементами индивидуальности
Но фундаментальная философия осталась: безопасность прежде всего. Google не стал копировать подход OpenAI. Вместо этого они ищут баланс между своей паранойей и требованиями пользователей.
Если вы тестируете новейшие модели, сравните логические способности в тесте Kimi k2.5 против Gemini 3.0 Flash. Разница в системных промптах напрямую влияет на reasoning.
Промпт-инженерия после утечки: что делать?
Утечка системного промпта Gemini - это не скандал. Это образовательный момент. Теперь мы знаем, как думает одна из самых защищенных моделей на рынке.
Используйте эти знания:
- Анализируйте отказы - когда модель говорит "не могу", спросите себя: это техническое ограничение или системный промпт?
- Тестируйте границы - понимание промпта помогает создавать эффективные jailbreak-запросы (хотя мы этого не рекомендуем)
- Копируйте структуру, не содержание - заимствуйте подход к организации, но адаптируйте правила под свои задачи
- Экспериментируйте с длиной - 1200 символов Gemini vs ~800 у ChatGPT. Какая длина оптимальна для вашего случая?
Самый важный урок: даже у Google нет идеального промпта. Их версия слишком консервативна. Ваша может быть лучше. Главное - понимать, что каждая строка системного промпта влияет на тысячи ответов.
Начните с простого шаблона. Тестируйте. Смотрите, где модель отказывается там, где не должна. Где слишком креативна там, где нужна точность. Каждая итерация - это шаг к своему "идеальному промпту".
И помните: следующий слитый промпт может быть вашим. Google научилась на своем опыте. Учитесь на их ошибках.