Кейс New Relic NOVA: корпоративный AI-ассистент на Amazon Bedrock и Kendra | AiManual
AiManual Logo Ai / Manual.
15 Фев 2026 Новости

Новая реликтовость: как инженеры New Relic построили внутреннего AI-ассистента, который не врет про документацию

Технический разбор: как New Relic создал внутреннего ассистента для инженеров на AWS. Архитектура, ошибки, реальные метрики продуктивности.

Когда документация лежит в 47 разных местах, а инженеры тратят 30% времени на поиск

В New Relic знали проблему досконально. К февралю 2025 года у них накопилось: 12 гигабайт внутренней документации, 9 тысяч страниц Confluence, 3 тысячи README в GitHub, сотни Slack-тредов с решениями инцидентов и пара десятков устаревших гайдов, которые все еще кто-то использует. Новый инженер тратил в среднем 3 недели только на то, чтобы понять, где что искать.

Классический корпоративный ад. Решение требовалось простое: ассистент, который знает ВСЕ внутренние материалы и отвечает на вопросы типа "Как настроить алерты для сервиса X?" или "Где взять доступы к продовой БД?".

Факт: по данным внутреннего исследования New Relic, инженеры теряли до 15 часов в месяц на поиск информации. Умножьте на 2000 разработчиков - получаем 30 000 человеко-часов ежегодно. Деньги улетали в трубу.

Почему они не взяли ChatGPT Enterprise или какой-нибудь готовый коробочный продукт?

Вопрос безопасности. Вся внутренняя документация - это потенциальные уязвимости, пароли (да, они иногда попадают в README), схемы инфраструктуры, внутренние API-ключи. Загружать это в сторонний сервис - самоубийство.

Второй момент - контекст. Готовые решения плохо понимают корпоративный жаргон, внутренние аббревиатуры ("NRQL", "APM", "Browser monitoring"), специфичные процессы компании.

Третий - интеграция. Ассистент должен был работать прямо в Slack, где инженеры и так проводят 80% рабочего времени.

💡
Интересно, что похожий подход использовали в Яндексе при создании DeepResearch. Там тоже столкнулись с проблемой контекста и безопасности, но пошли другим путем - создали полноценного агента для исследований. Подробности в нашем материале про корпоративный ИИ-агент Яндекса.

Архитектура NOVA: что внутри этого черного ящика?

Назвали систему NOVA (New Relic Operational Virtual Assistant). Архитектура выглядит так:

КомпонентТехнологияЗачем нужен
Хранилище знанийAmazon KendraИндексирует все документы, Confluence, GitHub, Slack
Мозг ассистентаAmazon Bedrock с Claude 3.5 SonnetГенерация ответов на основе контекста
ОркестраторAWS Step Functions + LambdaУправление workflow: поиск → обработка → ответ
ИнтерфейсSlack bot + внутренний веб-интерфейсТочка входа для пользователей
МониторингNew Relic (куда же без него)Трассировка запросов, метрики качества ответов

Ключевое решение - использовать Amazon Kendra как интеллектуальный поисковый движок. Он сам умеет парсить PDF, Word, Confluence, Slack, GitHub. Не нужно писать тонны кода для обработки разных форматов.

Но вот что интересно: Kendra - штука дорогая. Индексация 12 ГБ данных обошлась в несколько тысяч долларов ежемесячно. Плюс стоимость запросов. New Relic как компания, которая сама продает мониторинг, понимала цену инфраструктуры и считала каждую копейку.

Главная проблема: как заставить нейросеть не галлюцинировать?

Первые тесты были ужасны. Инженер спрашивал: "Как настроить алерт на 95-й перцентиль latency?" Ассистент отвечал красивым, грамотным текстом... который полностью противоречил внутренним гайдлайнам. Он просто придумывал ответ на основе общих знаний о мониторинге.

Решение оказалось в комбинации двух техник:

  1. Strict RAG (Retrieval-Augmented Generation) - система ищет в Kendra релевантные документы, передает их Claude как контекст и явно говорит: "Отвечай ТОЛЬКО на основе предоставленных документов".
  2. LLM-as-a-Judge - вторая нейросеть (поменьше и подешевле) проверяет ответ первой на соответствие контексту. Если видит расхождения - отправляет на доработку.

Про вторую технику мы писали отдельно: Amazon Nova LLM-as-a-Judge на практике. В New Relic использовали похожий подход, но с кастомной настройкой под свои нужды.

Важный нюанс: они НЕ стали использовать новейший Claude 3.7 или какие-то экспериментальные модели. Выбрали проверенный Claude 3.5 Sonnet на Bedrock - стабильный, предсказуемый и с хорошим соотношением цена/качество. Гонка за последней версией часто приводит только к росту затрат без реального улучшения качества.

Интеграция со Slack: простота, которая убивает

Интерфейс сделали максимально простым. В любом Slack-канале можно написать @nova и задать вопрос. Бот отвещает в треде, ссылаясь на источники.

Но была одна хитрость. Сначала бот отвечал сразу, даже если поиск занимал 10-15 секунд. Пользователи думали, что система зависла. Решение: мгновенный ephemeral message "Ищу информацию...", а потом уже полноценный ответ.

Еще одна фича - кнопки "Полезно" / "Бесполезно" под каждым ответом. Эти фидбеки автоматически отправлялись в отдельную очередь для анализа. Раз в неделю команда смотрела, на какие вопросы система отвечает плохо, и дообучала ее.

Что получилось в цифрах к февралю 2026?

После года работы:

  • 87% точности ответов (измеряли по выборке из 1000 вопросов с проверкой экспертами)
  • Среднее время ответа: 4.2 секунды (от вопроса в Slack до появления ответа)
  • 30% сокращение времени на поиск информации у новых инженеров
  • 1400 активных пользователей ежемесячно (из 2000 возможных)
  • Стоимость: $12 000/месяц на инфраструктуру AWS

Последняя цифра важна. $12 000 в месяц - это много или мало? Для сравнения: зарплата одного senior-инженера в Кремниевой долине - $20 000/месяц. Система экономит время минимум 10 инженерам. Математика простая.

💡
Кстати, Amazon сам использует похожие системы для внутренних нужд. Например, для генерации тест-кейсов они применяют Strands Agents - читайте в нашем разборе про ускорение генерации тестов в 40 раз.

Ошибки, которые они совершили (чтобы вы их не повторяли)

1. Сначала индексировали ВСЕ подряд. В Kendra попали устаревшие документы 5-летней давности, личные заметки, черновики. Пришлось чистить и настраивать фильтры.

2. Не учли rate limits Bedrock. В первый же день, когда анонсировали систему для всех сотрудников, получили 500 ошибки от AWS. Пришлось срочно ставить очередь запросов и лимиты на пользователя.

3. Забыли про мультиязычность. В New Relic есть команды в Европе и Азии. Когда немецкие инженеры спрашивали что-то на немецком, система искала только в англоязычных документах. Решение: автоматический перевод запроса перед поиском.

4. Не подготовили FAQ для частых вопросов. На "Как войти в VPN?" система каждый раз искала документы, хотя ответ никогда не менялся. Добавили кэширование частых вопросов.

А что с альтернативами? Почему не OpenAI, не локальные модели?

OpenAI Frontier - мощно, но дорого и вопросы с данными. Локальные модели (как в self-hosted решениях для разработки) требуют своих экспертов по ML-инфраструктуре.

Bedrock выбрали потому что:

  • Уже были глубоко в экосистеме AWS
  • Нужен был enterprise-grade SLA (99.9% доступности)
  • Требовалась интеграция с Kendra "из коробки"
  • Важен был compliance (сертификаты типа SOC2, ISO27001)

Кстати, если хотите быстро развернуть похожую систему, посмотрите на FAST - Fullstack AgentCore Solution Template. Это готовый шаблон от AWS, который ускоряет разработку в разы.

Что дальше? Мультиагентные системы уже на горизонте

Сейчас NOVA - это один агент. Но команда New Relic экспериментирует с мультиагентным подходом. Представьте: один агент ищет в документации, второй анализирует текущие алерты в системе, третий проверяет похожие инциденты в прошлом.

Такие системы уже появляются. Например, в нашем материале про мультиагентные системы на Amazon Bedrock мы разбирали, как Nova 2 Lite и Nova Act работают вместе.

Но есть проблема: стоимость. Каждый дополнительный агент - это дополнительные вызовы к LLM. А они не дешевые. Особенно когда у тебя 1400 активных пользователей.

Прогноз на 2026-2027: мы увидим войну оптимизаций. Компании будут искать способы делать мультиагентные системы дешевле - через кэширование, smaller models для простых задач, лучшую оркестрацию. Тот, кто найдет формулу "качество/стоимость", выиграет рынок корпоративных ассистентов.

Так стоит ли строить своего корпоративного ассистента в 2026?

Если у вас:

  • Больше 50 инженеров/сотрудников
  • Разрозненная документация в 3+ системах
  • Проблема с онбордингом новых людей
  • Бюджет от $5000/месяц на инфраструктуру

Тогда да, стоит. ROI обычно окупается за 6-9 месяцев.

Если меньше - возможно, проще купить готовое решение или использовать что-то вроде ChatGPT Enterprise с тщательно отфильтрованными документами.

Но главный урок от New Relic: начинайте с пилота. Не пытайтесь сразу накормить нейросеть всеми документами компании. Возьмите один отдел, одну тему (например, "онбординг новых разработчиков"), сделайте MVP за 2-3 недели. Получите feedback. Потом масштабируйте.

И запомните: самая сложная часть - не технология. Это изменение процессов. Заставить людей использовать нового ассистента вместо привычного "спрошу у Васи в Slack" - вот настоящий вызов.