Безопасность ChatGPT Health... или нет?

Безопасность ChatGPT Health... или нет?

11 Mar 2026

Инструмент ИИ, как правило, правильно распознает четкие, «учебные» чрезвычайные ситуации, такие как инсульт или тяжелая аллергическая реакция. Однако в более нюансах, когда клиническое суждение имеет важное значение, его производительность оказалась менее надежной.

Результаты

  • В более чем половине смоделированных экстренных случаев система недооценивала срочность помощи
  • В ряде сценариев ИИ пропускал признаки суицидального риска
  • Одновременно часть здоровых пользователей направлялась в неотложку без необходимости

Что это означает

  • LLM уже становятся «первой точкой входа» пациентов в медицину
  • Но именно на клинических крайностях точность пока недостаточна
  • Ошибки логистики могут создавать ложное чувство безопасности или, наоборот, перегружать систему

Позиция разработчика

OpenAI заявляет, что результаты не полностью отражают реальное использование и модель продолжает обновляться.

Вывод

ИИ-ассистенты в здравоохранении — мощный инструмент, но их клиническое применение требует независимой валидации, прозрачности и строгих стандартов безопасности.


Новость подготовлена командой Evercare