Когда каждый байт стоит миллионы: почему финансам нужны агенты без фантазий
Представьте, что ваш AI-аналитик вдруг заявил, что акции Apple упали на 50% после выхода нового iPhone. Паника, продажи, хаос. А потом выясняется - это галлюцинация. В мире финансов такие ошибки стоят миллиардов. Именно с этой проблемой и столкнулась команда Kensho, когда S&P Global попросила их создать интеллектуальный интерфейс к своим данным.
Требование было простым и жутким: ноль выдумки. Сто процентов точности. Каждый факт, каждая цифра - только из проверенных источников. И сделать это нужно было быстро. Обычный чат-бот на базе GPT-4o или Claude 3.5 Sonnet здесь не катил - слишком болтлив и склонен к творчеству.
На 29 марта 2026 года актуальными флагманскими LLM остаются OpenAI o3, Anthropic Claude 3.7 и открытые Mixtral 2.0. Но все они, даже с улучшенным reasoning, нуждаются в жёстком контроле при работе с критичными данными.
Kensho, дочка S&P Global известная своими аналитическими AI, решила не изобретать велосипед, а собрать его из готовых, но мощных деталей. Их выбор пал на LangGraph - фреймворк, который к 2026 году из инструмента для энтузиастов превратился в промышленный стандарт для сборки агентных систем. Последняя стабильная версия, LangGraph 2.3, предлагала как раз то, что нужно: чёткую модель графов состояний для оркестровки множества узконаправленных агентов.
LangGraph не для слабаков: как Kensho собрала оркестр агентов
Они не стали создавать одного супер-агента, который знает всё. Вместо этого построили целый конвейер из специалистов. Один агент-диспетчер принимает запрос пользователя: "Покажи динамику выручки Tesla за последний квартал и прогноз аналитиков".
Другой, агент-планировщик, разбивает его на атомарные задачи: 1) найти фактические данные по выручке из базы S&P Capital IQ Pro, 2) извлечь прогнозы из отчётов исследователей, 3) скомпилировать ответ. Третий, агент-исполнитель, с помощью специальных инструментов (tools) лезет в конкретные API S&P Global. Четвёртый, агент-верификатор, проверяет, что все данные имеют корректные атрибуты (источник, дата, методология). И только затем финальный агент-синтезатор формирует ответ для человека.
Вся эта карусель крутится на LangGraph. Его ключевая фишка - явно описанные состояния (State) и чёткие правила перехода между узлами-агентами. Если исполнитель не нашёл данных, граф может направить запрос по другой ветке, к альтернативному источнику. Если верификатор зафлажил расхождение, процесс может откатиться к планировщику. Это не линейный чат, а полноценный workflow. Именно о такой дисциплине "агентной инженерии" говорили в LangChain ещё пару лет назад.
Grounding или провал: как заставить агентов говорить только правду
Самый сложный кусок пазла - grounding framework. Как технически запретить агенту гадать? Kensho использовала комбинацию методов.
Во-первых, строгий контекст. Агенты-исполнители получают не просто промпт "найди данные", а строгий шаблон с параметрами для вызова конкретного REST endpoint S&P Global. Они физически не имеют доступа к общим знаниям LLM о мире.
Во-вторых, citation enforcement. Каждый фрагмент информации в итоговом ответе должен иметь прикреплённую сноску - ID документа, временную метку, название источника. Если агент-синтезатор пытается что-то обобщить "от себя", система это отбрасывает. Это похоже на идеи Deep Research Agent, но доведённые до абсолюта.
В-третьих, многоуровневая валидация. Даже после получения данных из "истинного" источника, они проходят проверку на консистентность. Например, если новый отчёт о выручке компании отличается от предыдущего на порядок, срабатывает сигнал, и агент-арбитр запускает дополнительную проверку.
Что получилось? Цифры, которые заставят трейдеров улыбнуться
Система, по данным Kensho, работает в продакшене с конца 2025 года. К марту 2026 она обрабатывает тысячи сложных аналитических запросов ежедневно от аналитиков S&P Global. Точность ответов (precision) в тестах на релевантных финансовых данных приближается к 99.8%. Ключевой метрике - rate of hallucinations - удалось удержать на уровне ниже 0.1%.
Это не просто красивые цифры. Это значит, что аналитик может спросить: "Сравни мультипликаторы P/E для сектора полупроводниковников в США и Азии на конец прошлого года, с учётом валютных корректировок" и получить точную таблицу с числами, каждое из которых привязано к конкретному отчёту в базе. Без отсебятины.
И да, система умеет говорить "не знаю". Если данных нет или они противоречивы, пользователь видит чёткое сообщение об ограничениях, а не красивую, но ложную выдумку. Для финансового мира это часто ценнее, чем красивый ответ.
А что под капотом? (Спойлер: не только LangGraph)
LangGraph 2.3 стал ядром оркестровки, но не единственным компонентом. Для наблюдения за работой агентов в реальном времени команда активно использует LangSmith. Интеграция стала ещё глубже после того, как LangSmith появился в Google Cloud Marketplace, что упростило compliance для корпоративного внедрения.
Для тестирования и бенчмаркинга разных конфигураций агентов применяется Langfuse. Постоянные эксперименты показывают, какая комбинация моделей и промптов даёт лучший результат для конкретного типа запросов. Это та самая наблюдаемость и автоматическая оценка, без которой продакшн-система в 2026 году немыслима.
Интересно, что Kensho отказалась от сложных Knowledge Graphs для хранения онтологии финансовых терминов. Вместо этого они используют векторизованные поисковые индексы прямо поверх сырых данных S&P, что при grounding-подходе оказалось быстрее и надёжнее.
Почему это не идеально? Говорим о трещинах в фундаменте
Система дорогая. Очень. Каждый вызов к мощной LLM (для планировщика и синтезатора), плюс тысячи вызовов к внутренним API, плюс инфраструктура наблюдения. Это не для стартапа.
Она медленная. Сложный запрос может обрабатываться десятки секунд, пока данные идут по всем агентам и проверкам. Для реального времени в трейдинге это неприемлемо - система предназначена для аналитической работы, а не для принятия сделок за миллисекунды.
И она хрупкая. Изменение в API S&P Global или в структуре отчётов требует немедленного обновления промптов и tools у агентов-исполнителей. Поддерживать это - отдельная работа. Автоматического апдейта пока нет.
Главный урок Kensho: multi-agent система - это не про магию, а про инженерию. Чем чётче вы опишете граф, тем надёжнее будет результат. И тем дороже это выйдет.
Что дальше? Прогноз от того, кто видел, как AI ест финансы
Кейс Kensho - не единичный феномен. Это тренд. К 2026 году компании устали от болтливых и непредсказуемых чат-ботов. Спрос смещается к детерминированным, управляемым системам, которые встраиваются в бизнес-процессы. LangGraph и подобные фреймворки становятся такими же стандартными инструментами, как когда-то базы данных.
Следующий шаг - вертикальная интеграция. Неудивительно, если в ближайший год мы увидим, что платформы вроде LangChain и NVIDIA предложат готовые grounding-фреймворки для конкретных отраслей: медицины, юриспруденции, логистики. Зачем строить с нуля, если можно купить и настроить?
А тем, кто только начинает думать об агентах, совет от инженеров Kensho (неофициальный, конечно): начните с малого. Возьмите одну конкретную задачу, одну доверенную базу данных и одного агента на LangGraph. Заставьте его работать идеально. Потом добавляйте второго. И не экономьте на инструментах визуализации и отладки. Иначе вы никогда не поймёте, почему ваш агент вдруг решил, что лучшая инвестиция - это ракушки.