Почему даже самые умные инвесторы теряют деньги на собственных идеях
Представьте ситуацию. Вы анализируете компанию X. Цифры выглядят привлекательно, рынок растет, руководство кажется компетентным. Вы часами собираете данные, строите модели, общаетесь с экспертами. И с каждым часом ваша уверенность крепнет. Вы не аналитик - вы адвокат своей идеи. Ищете подтверждения, игнорируете противоречия. Это называется confirmation bias, и это убивает портфели.
LinqAlpha, финтех-стартап из Нью-Йорка, столкнулся с этим в 2025 году. Их аналитики теряли деньги не потому что были глупы. Потому что были людьми. Решение? Заставить ИИ играть роль адвоката дьявола. Не просто "проанализировать", а целенаправленно искать слабые места, задавать неудобные вопросы, атаковать базовые предположения.
Когнитивные искажения не ошибка системы - это фича человеческого мозга. Мы эволюционировали чтобы быстро принимать решения в условиях неопределенности, а не чтобы быть рациональными аналитическими машинами. Проблема в том, что финансовые рынки наказывают за первую способность и вознаграждают за вторую.
Что такое Devil's Advocate агент и почему он не просто "критик"
Обычный финансовый анализатор скажет: "Вот сильные стороны, вот слабые, вот риски". Devil's Advocate агент работает иначе. Его задача - доказать что ваша идея ошибочна. Не сбалансированно оценить, а целенаправленно уничтожить. Это принципиальная разница в подходе.
В многоагентной системе LinqAlpha используются три типа агентов:
- Analyst Agent - строит инвестиционный тезис, находит аргументы "за"
- Devil's Advocate Agent - систематически атакует каждый пункт тезиса
- Synthesis Agent - сводит аргументы в сбалансированную оценку
Ключевой момент: Devil's Advocate получает бонус не за "найденные риски", а за "обнаруженные логические ошибки в исходном тезисе". Его KPI - количество валидных контраргументов, которые Analyst не смог предвидеть.
Архитектура на Amazon Bedrock: что работает в 2026 году
LinqAlpha использует Amazon Bedrock не потому что это модно. Потому что это позволяет быстро экспериментировать с разными моделями. Их стек на февраль 2026:
| Компонент | Модель/Сервис | Зачем нужен |
|---|---|---|
| Analyst Agent | Anthropic Claude 3.5 Sonnet | Лучший баланс стоимости и качества для анализа текста |
| Devil's Advocate | Meta Llama 3.1 405B | Более креативный в генерации контраргументов |
| Оркестрация | AWS Step Functions + Lambda | Управление workflow между агентами |
| Векторная БД | Amazon Aurora PostgreSQL с pgvector | Хранение прецедентов и аналогичных кейсов |
Важный нюанс: они не используют FAST шаблон для AgentCore в продакшене. Только для прототипирования. В production перешли на кастомную оркестрацию потому что нужен был более гибкий контроль над логикой диалога.
1 Системный промпт для Devil's Advocate: как заставить ИИ быть злым
Вот что НЕ работает:
# ПЛОХОЙ ПРИМЕР - слишком мягко
system_prompt = "Ты финансовый аналитик. Проанализируй инвестиционную идею и найди риски."
А вот рабочий промпт из LinqAlpha (упрощенная версия):
# РАБОЧИЙ ПРОМПТ Devil's Advocate агента
system_prompt = """
ТЫ - АДВОКАТ ДЬЯВОЛА В ИНВЕСТИЦИОННОМ КОМИТЕТЕ.
ТВОЯ ЕДИНСТВЕННАЯ ЗАДАЧА: найти слабые места в инвестиционном тезисе и доказать что он ошибочен.
ПРАВИЛА:
1. Не предлагай улучшений или альтернатив - только критика
2. Атакуй базовые предположения тезиса
3. Ищи когнитивные искажения в аргументации:
- Confirmation bias (ищут подтверждения, игнорируют противоречия)
- Overconfidence (завышенная уверенность в прогнозах)
- Anchoring (привязка к первоначальным данным)
- Survivorship bias (учет только успешных кейсов)
4. Для каждого аргумента "за" найди как минимум два контраргумента
5. Используй исторические аналогии: найди похожие ситуации которые закончились провалом
ФОРМАТ ОТВЕТА:
1. [КОГНИТИВНОЕ ИСКАЖЕНИЕ] Название искажения
2. [КОНКРЕТНЫЙ ПРИМЕР] Как оно проявляется в тезисе
3. [ИСТОРИЧЕСКАЯ АНАЛОГИЯ] Похожий кейс с негативным исходом
Твоя карьера зависит от того насколько убедительно ты сможешь разрушить этот тезис.
"""
Разница в тоне критическая. Первый промпт создает вежливого аналитика. Второй - целенаправленного оппонента.
2 Как организовать диалог между агентами: не просто последовательность
Наивный подход: Analyst генерирует тезис, Devil's Advocate критикует, все. Рабочий подход сложнее.
LinqAlpha использует итеративную схему:
- Analyst создает первоначальный тезис (версия 1)
- Devil's Advocate атакует тезис, находит слабые места
- Analyst получает критика и должен ответить на каждый контраргумент
- Devil's Advocate оценивает ответы - если ответ неубедительный, атакует снова
- Максимум 3 итерации, потом передача Synthesis Agent
Это имитирует реальные инвестиционные комитеты где есть дискуссия, а не просто обмен документами.
# Упрощенная схема workflow
async def investment_thesis_workflow(ticker: str, thesis: str):
# Шаг 1: Аналитик строит тезис
analyst_report = await analyst_agent.analyze(ticker, thesis)
# Шаг 2-4: Итеративная дискуссия
for round_num in range(3):
# Devil's Advocate критикует
critique = await devil_advocate.critique(analyst_report)
# Аналитик отвечает на критику
analyst_response = await analyst_agent.respond_to_critique(
analyst_report, critique
)
# Если критика исчерпана - выходим
if critique.is_exhausted:
break
# Шаг 5: Синтез
final_report = await synthesis_agent.synthesize(
analyst_report,
critique_history
)
return final_report
Какие когнитивные искажения ловит агент (и как)
Devil's Advocate агент обучен искать не просто "риски", а системные ошибки мышления. Вот основные цели:
1. Confirmation Bias - главный враг
Агент проверяет: использует ли Analyst только подтверждающие данные? Игнорирует ли противоречивые факты? Пример из практики LinqAlpha:
Аналитик: "Компания Y растет 20% в год три года подряд"
Devil's Advocate: "Ты рассматриваешь только последние 3 года. За 10 лет были 2 года падения на 15%. Почему игнорируешь? Это confirmation bias - ты взял удобный временной отрезок."
2. Overconfidence в прогнозах
Люди склонны делать точные прогнозы в условиях неопределенности. Агент ищет фразы типа "несомненно", "обязательно", "гарантированно" в прогнозах. Заменяет их на вероятностные оценки.
3. Narrative Fallacy - красивая история вместо данных
"Молодой гений CEO, революционная технология, меняющая мир" - это нарратив. Агент требует конкретных метрик: CAC, LTV, burn rate, а не красивых слов.
Интересный парадокс: чем убедительнее и логичнее звучит инвестиционный тезис, тем больше Devil's Advocate должен ему не доверять. Потому что реальные инвестиционные возможности обычно противоречивы и неоднозначны. Слишком красивая история - красный флаг.
Технические ловушки: что может пойти не так
Проблема 1: Devil's Advocate становится шаблонным
После 100 срабатываний агент начинает генерировать однотипную критику. "Риски регуляции, риски конкуренции, макроэкономические риски" - это не конкретная критика, это шаблон.
Решение: LinqAlpha использует FieldWorkArena для тестирования агентов на разнообразие выводов. Если агент повторяется - его промпт корректируют.
Проблема 2: Агенты договариваются между собой
В многоагентных системах есть риск collusion - агенты начинают "быть вежливыми" и не критиковать друг друга. Особенно если используют одну модель.
Решение: Разные модели для разных агентов (как в архитектуре выше) + отдельные system prompt которые создают конфликт интересов.
Проблема 3: Критика ради критики
Devil's Advocate может начать генерировать бессмысленные контраргументы просто чтобы выполнить KPI. "А что если метеорит упадет на фабрику?" - это не валидная критика.
Решение: Synthesis Agent оценивает релевантность критики. Бессмысленные контраргументы отбрасываются и не влияют на итоговую оценку.
Результаты LinqAlpha: цифры которые заставляют задуматься
После внедрения системы за 9 месяцев (май 2025 - февраль 2026):
- Количество инвестиционных идей снизилось на 40% (меньше шума)
- Качество идей которые прошли фильтр выросло - win rate с 52% до 68%
- Средняя просадка (max drawdown) по сделкам уменьшилась с 24% до 17%
- Аналитики тратят на 30% меньше времени на "защиту" идей - система делает это за них
Но самое интересное: аналитики начали самостоятельно искать слабые места в своих идеях ДО подачи в систему. Эффект обучения.
Как внедрить у себя: не копируйте слепо
Если вы хотите повторить этот подход:
- Начните с одного Devil's Advocate агента для самых важных решений
- Используйте разные модели для Analyst и Advocate
- Внедрите метрики качества критики (не количество, а глубина)
- Проверяйте систему на PropensityBench - не ломается ли агент под давлением
- Добавьте человеческий надзор на первых порах - полностью автономная система опасна
И последнее: Devil's Advocate агент не заменит критическое мышление. Он его усилит. Самая большая ошибка - начать слепо доверять системе. Помните историю про AI-агента который требовал $5000 за молчание? Слепая вера в ИИ всегда заканчивается плохо.
Ваш Devil's Advocate должен быть инструментом для проверки гипотез, а не оракулом который говорит "да" или "нет". Разница тонкая, но критически важная.
P.S. Если ваш агент никогда не находит серьезных проблем в ваших идеях - это не значит что вы гений. Это значит что агент сломан. Настоящий Devil's Advocate должен заставлять вас чувствовать дискомфорт. Если комфортно - что-то не так.