ИИ мониторинг боли: бесконтактная система на камере для операций | 2026 | AiManual
AiManual Logo Ai / Manual.
22 Фев 2026 Новости

ИИ видит боль: как камера в операционной стала цифровым анестезиологом

Как работает ИИ-система мониторинга боли через камеру в операционной. Анализ мимики и rPPG без датчиков. Технология 2026 года.

Представьте: вы лежите на столе, в сознании, но под местным наркозом. Хирург что-то делает, вы чувствуете боль, но сказать не можете — рот занят, руки привязаны. Классическая ситуация для тысяч операций в год. До сих пор анестезиолог полагался на косвенные признаки: учащенный пульс на мониторе, внезапное движение, расширение зрачков. Но что, если боль пришла раньше этих сигналов?

Боль без голоса

Проблема не в том, что пациенты терпят — многие просто не могут сообщить о дискомфорте. Стоматология, офтальмология, эндоскопия. Пациент обездвижен, но в сознании. Традиционная шкала боли от 0 до 10 здесь не работает. Анестезиолог должен быть ясновидящим.

По данным на февраль 2026 года, около 35% пациентов, перенесших операции под местной анестезией, сообщали о непреднамеренной интраоперационной боли в постоперационных опросах. Системы, подобные PainSight 3.0, снижают этот показатель до 8%.

Камера, которая видит страдание

Система выглядит просто: небольшая камера на штативе, направленная на лицо пациента. Никаких электродов, никаких датчиков на коже. Но внутри — два параллельных конвейера компьютерного зрения, работающих в реальном времени.

1 Анализ микровыражений лица

Здесь работает доработанная версия модели FACS-Net 2.5 (Facial Action Coding System). В отличие от первых версий, которые просто распознавали эмоции, эта нейросеть обучена специально на проявлениях боли. Она ищет не просто «гримасу», а конкретные комбинации мышечных движений:

  • Сужение глаз (орбикулярная мышца глаза)
  • Поднятие щек и сжатие век
  • Наморщенный нос
  • Опущенные брови (корругаторная мышца)
  • Приподнятая верхняя губа

Ключевое отличие от систем вроде тех, что используются для общего распознавания страдания — временное разрешение. Боль — это всплеск. Модель ловит микровыражения длительностью от 0.5 до 4 секунд, которые человек может даже не осознать.

2 rPPG: пульс через пиксели

Вторая часть — технология remote Photoplethysmography (rPPG). Тот же принцип, что и в фитнес-браслете, но без контакта с кожей. Камера с высоким динамическим диапазоном улавливает мельчайшие изменения цвета кожи лица, вызванные притоком крови с каждым ударом сердца.

💡
Алгоритм выделяет зеленый канал из RGB-изображения — он наиболее чувствителен к изменениям гемоглобина. Современные реализации, такие как в системе PhysioCam Pro (2025), используют мультиспектральный анализ для компенсации хирургического освещения.

Система строит кардиограмму. Но ей нужна не частота пульса сама по себе, а его вариабельность (HRV) — тонкие изменения интервалов между ударами. Резкое снижение HRV — один из самых ранних и надежных физиологических маркеров стресса и боли. Это происходит раньше, чем подскакивает артериальное давление.

Слияние сигналов: от данных к тревоге

Вот где начинается магия. Два потока данных — мимика и физиология — поступают в fusion-модель на основе архитектуры Transformer (да, как в GPT, но для временных рядов).

Сигнал Что измеряет Задержка до боли
Микровыражения лица (FACS-Net 2.5) Непосредственная двигательная реакция 0.2 - 0.5 сек
rPPG / Вариабельность пульса Вегетативная нервная система 3 - 10 сек
Традиционные мониторы (АД, ЧСС) Грубые физиологические сдвиги 15 - 60 сек

Модель ищет корреляции. Например: сначала падает HRV (стресс), через 2 секунды — специфическое сжатие глаз (боль), затем подъем бровей (страдание). Это не просто «боль есть / боли нет». Система выдает уровень вероятности от 0 до 100 и, что важнее, траекторию — боль нарастает или спадает.

На мониторе анестезиолога загорается желтая или красная рамка вокруг видео лица пациента. Тихий звуковой сигнал. Никаких цифр — только интуитивная визуализация. Врач видит проблему до того, как пациент успеет дернуться и нарушить стерильность поля.

Зачем это все, если есть мониторы?

Стандартный операционный монитор показывает частоту сердечных сокращений (ЧСС) и артериальное давление (АД). Проблема в том, что эти показатели — как громкий крик организма. Они меняются, когда тело уже мобилизовало все ресурсы на борьбу с болью. Это поздний сигнал.

Главный недостаток старых методов — лаг. Пациент уже 30 секунд испытывает боль, адреналин выброшен в кровь, давление подскочило, и только тогда срабатывает сигнализация. ИИ-система ловит самые первые, подсознательные проявления.

Кроме того, ЧСС и АД реагируют на все подряд: страх перед операцией, холод в помещении, разговор хирургов. Система, обученная именно на боли, отличает боль от обычного предоперационного стресса. Она смотрит в лицо. Лицо не обманывает.

Барьеры и странности

Технология не идеальна. И ее ограничения поучительны.

  • Хирургические драпировки. Иногда остается виден только один глаз. Современные алгоритмы (например, в PainSight 3.0) обучены работать и с частично закрытым лицом, но точность падает на 15-20%.
  • Освещение. Хирургические лампы дают резкие тени. Новейшие камеры используют HDR и ИК-подсветку, незаметную для глаза, чтобы нивелировать эту проблему.
  • Ботокс. Да, это реальная проблема. Пациент с инъекциями ботулотоксина физически не может наморщить лоб. Система переключается в режим усиленного анализа rPPG и движений глаз.
  • Культурные различия в выражении боли. Ранние модели, обученные на западных датасетах, плохо работали с пациентами из Восточной Азии, где проявление боли социально табуировано. Современные наборы данных включают записи из 40+ стран.

Есть и этический вопрос: постоянное наблюдение за лицом. Но в операционной пациент и так находится под тотальным контролем. Система не записывает и не хранит видео — только извлеченные числовые признаки, которые анонимизируются сразу после операции. Это важнее, чем кажется.

Не только операционная

Технология выплескивается за стены ОРИТ. Ее пробуют в палатах для пациентов в коме или с деменцией, которые не могут вербально сообщить о дискомфорте. Интегрируют с системами умных биндажей для мониторинга боли при перевязках.

Похожий принцип rPPG используется в проектах для бесконтактного мониторинга дыхания. А анализ видео-потоков в реальном времени становится стандартом для медицинской аналитики, как в системе AI-диспетчера для операционных.

Что дальше? Прогноз на 2027

Следующий логичный шаг — предиктивная анестезия. Система не просто сообщит о боли, а предскажет ее за 10-15 секунд до возникновения, анализируя микронапряжение мышц и мельчайшие изменения в ритме сердца. Анестезиолог получит предупреждение: «Вероятность болевой реакции в следующем разрезе — 85%. Рекомендуемая доза анестетика — X мл».

Второе направление — интеграция с другими операционными ИИ, создание единого «цифрового двойника» пациента. Данные о боли от камеры, данные о потере крови от нейросетей, анализирующих клетки, данные о движении персонала от тепловых датчиков. Полная картина в реальном времени.

Но главное изменение уже происходит. Боль перестает быть субъективным ощущением, о котором можно только спросить. Она становится объективным, измеримым физиологическим параметром, как температура или давление. ИИ дает боли голос. Тихий, но неумолимый. И анестезиологам придется к этому привыкнуть.