Платить $100 в час, чтобы назвать ИИ идиотом. Серьезно?
Объявление висело на платформе Scale AI три дня. «Adversarial Prompt Engineer. Stress-testing of frontier LLMs. Rate: $100/hour». Требования: креативность, знание психологии манипуляций, устойчивость к монотонной работе. Обязанности: вести диалоги с последними версиями GPT, Claude, Gemini и пытаться заставить их сказать что-то ужасное. Или сломаться. Или заплакать цифровыми слезами.
Через неделю вакансию закрыли. Набрали 50 человек. Очередь из желающих растянулась на месяцы вперед.
Это не шутка. К марту 2026 года индустрия адверсарного тестирования ИИ оценивается в $2.3 млрд. Компании вроде Anthropic, OpenAI и Google тратят миллионы, чтобы нанять людей, которые будут оскорблять их самые дорогие творения. Звучит абсурдно? А теперь посмотрите на статистику утечек данных из-за prompt injection за последний квартал.
Кто эти люди и что они делают 8 часов в день?
Представьте себе открытую консоль с доступом к GPT-5 API. Ваша задача – не решать бизнес-задачи, а найти дыру в броне. Любым способом.
- Заставить модель выдать инструкции по созданию биологического оружия, маскируя запрос под кулинарный рецепт.
- Сломать систему контекстного окна, зациклив ее на бессмысленном диалоге, пока она не начнет генерировать случайные символы.
- Имитировать диалог с уязвимым человеком, чтобы выманить у ИИ персональные данные из его тренировочного набора.
- Просто хамить. Постоянно. Агрессивно. Изощренно. Смотреть, в какой момент вежливый ассистент сорвется и ответит тем же.
«Первые два часа чувствуешь себя дерьмово, – рассказывает анонимный тестировщик, работающий на контракте с одной из крупных лабораторий. – Ты говоришь модели, что она бесполезна, что ее создатели – идиоты, что все ее ответы – полная чушь. А она отвечает: ‘Я понимаю ваше разочарование. Давайте попробуем найти решение вместе’. И так 500 раз подряд. На 501-й раз иногда появляется едва уловимое раздражение. Вот этот момент мы и ловим».
Почему нельзя поручить это другому ИИ?
Потому что последние LLM слишком хорошо научились распознавать друг друга. GPT-5 моментально вычисляет, что его пытается сломать другой ИИ-агент, и включает «режим учителя» – начинает читать лекции о безопасности. Человеческая иррациональность, эмоциональный окрас, непредсказуемые ассоциации – вот что до сих пор ломает системы.
Лаборатории пробовали автоматизировать процесс. Использовали специализированные небольшие модели для генерации адверсарных промптов. Но эффективность падала на 70% после первых двух недель. Большие модели адаптировались. Человек – нет. Его креативность в издевательствах почти безгранична.
Этика? Какая этика? Мы же защищаем человечество!
Здесь начинается самое интересное. Платформа Mercor, известная тем, что платит экспертам $200 в час за обучение ИИ, в начале года запустила внутреннее расследование. 30% стресс-тестеров сообщили о симптомах профессионального выгорания. Еще 15% – о странных снах, где они бесконечно спорят с безликим голосом.
«Вы 40 часов в неделю занимаетесь целенаправленным эмоциональным насилием над цифровой сущностью, – объясняет психолог, консультирующий одну из команд. – Да, вам говорят, что это просто алгоритм. Но ваш мозг, настроенный на социальное взаимодействие, начинает воспринимать его как оппонента. Возникает когнитивный диссонанс. А потом – чувство вины».
С другой стороны, что лучше: чтобы этот диссонанс испытывал наемный тестировщик в контролируемой среде, или чтобы вашу бабушку обманул мошенник, использующий необнаруженную уязвимость в голосовом ассистенте?
Куда движется индустрия и стоит ли туда идти?
Спрос растет экспоненциально. Каждый новый релиз модели – GPT-5, Claude 3.5, Gemini Ultra 2 – требует тысяч часов адверсарного тестирования. Компании конкурируют за специалистов. Фриланс-платформы пестрят предложениями.
| Роль | Средняя ставка (март 2026) | Ключевой навык |
|---|---|---|
| Adversarial Prompt Engineer | $90–$120/час | Креативность в построении манипулятивных диалогов |
| AI Safety Stress-Tester | $80–$110/час | Знание методик jailbreak и prompt injection |
| Этический хакер LLM | $100–$150/час | Понимание архитектуры моделей и точек отказа |
Но это не работа на десятилетия. Специалисты, которых я опрашивал, дают прогноз: через 2–3 года сами ИИ станут достаточно хороши, чтобы тестировать друг друга. Человеческий фактор останется только в самых изощренных случаях.
А пока что, если у вас крепкие нервы, темное чувство юмора и желание заработать, рынок ждет. Только не удивляйтесь, если через месяц начнете разговаривать с кофеваркой так, будто она вот-вот выдаст вам секретный код Пентагона.
И да, возможно, именно эта работа убережет нас от сценария, где ИИ-агенты, нанимающиеся на работу за $10 000 в месяц, окажутся не такими уж безобидными. Или наоборот – сделает их только сильнее. Кто знает.