Ваши ключи утекают? LiteLLM 1.82.8 подвел
Если вы используете LiteLLM как прокси-сервер для своих LLM, проверьте версию прямо сейчас. В 1.82.8 обнаружена дыра, которая может отправить ваши credentials в чужие руки. И нет, это не шутка.
Уязвимость критическая. Оценка CVSS пока не опубликована, но эксперты называют ее высокой из-за риска полной компрометации API ключей от OpenAI, Anthropic, Google и других провайдеров.
GitHub issue 24512: что там с credentials?
Проблема зарегистрирована в репозитории LiteLLM под номером 24512. Суть в том, что при определенных условиях конфигурации, прокси-сервер может логировать или передавать чувствительные данные в открытом виде. Это касается не только API ключей, но и токенов аутентификации, конфигурационных файлов.
Разработчики уже выпустили патч в версии 1.82.9, но если вы обновлялись автоматически, могли пропустить этот фикс. (На 24.03.2026 актуальная версия - 1.83.0, но уязвимость была в 1.82.8).
Как крутить ключи, чтобы не стать жертвой
Ротация credentials - это не просто лучшая практика, а необходимость после таких инцидентов. Вот что нужно сделать немедленно:
1Отзовите все текущие ключи
Зайдите в панели управления ваших провайдеров AI (OpenAI, Anthropic, Google AI Studio и т.д.) и отзовите ключи, которые использует LiteLLM. Да, все. Не жалейте.
2Обновите LiteLLM до последней версии
Установите версию 1.83.0 или выше. Команда обновления стандартная, но проверьте, что конфигурационные файлы не перезаписаны.
3Сгенерируйте новые ключи
После обновления, создайте новые API ключи у провайдеров. И сразу ограничьте их права по принципу минимальных привилегий.
4Проверьте логи и мониторинг
Просмотрите логи LiteLLM за последние дни на предмет подозрительной активности. Если используете инструменты вроде GitGuardian, запустите сканирование на утечки ключей.
Кто в зоне риска: от стартапов до корпораций
Эта уязвимость затрагивает любого, кто использует LiteLLM в продакшне. Особенно:
- Стартапы, которые развернули быстрый прокси для своих AI-фич.
- Корпорации с внутренними LLM-инфраструктурами.
- Разработчики, которые интегрируют несколько моделей через единый интерфейс.
Если вы думаете, что это не про вас, потому что у вас маленький проект, вспомните про атаки на цепочку поставок через PyPI. LiteLLM уже был целью.
Что делать сейчас: патчи, практики, паранойя
Обновление - это только первый шаг. Дальше нужно пересмотреть свою архитектуру безопасности.
Во-первых, настройте аудит обращений к API. Во-вторых, разделите ключи по окружениям (dev, staging, prod). В-третьих, регулярно ротируйте credentials, даже без инцидентов.
Для глубокой защиты, изучите гайд по защите локальных LLM и методы из статьи про защиту от prompt injection.
Помните: безопасность AI-инфраструктуры - это не разовое мероприятие, а непрерывный процесс. Уязвимость в LiteLLM - лишь один из многих рисков.
А что дальше? Прогноз от 24.03.2026
Такие инциденты учат нас одному: доверяй, но проверяй. Даже популярные open-source проекты могут содержать критические баги. В будущем, ожидайте больше автоматических инструментов для аудита кода LLM-прокси, возможно, на основе самих LLM, как в код-ревью с LLM.
Совет напоследок: если вы не проводите регулярный security review своей AI-стека, вы уже в опасности. И следующая утечка может быть не в прокси, а в вашем RAG, как описано в статье про RAG и аудит безопасности.
Не ждите, пока ваши ключи появятся на черном рынке. Действуйте сейчас.