Безопасность ChatGPT Health... или нет?
11 Mar 2026
Инструмент ИИ, как правило, правильно распознает четкие, «учебные» чрезвычайные ситуации, такие как инсульт или тяжелая аллергическая реакция. Однако в более нюансах, когда клиническое суждение имеет важное значение, его производительность оказалась менее надежной.
Результаты
- В более чем половине смоделированных экстренных случаев система недооценивала срочность помощи
- В ряде сценариев ИИ пропускал признаки суицидального риска
- Одновременно часть здоровых пользователей направлялась в неотложку без необходимости
Что это означает
- LLM уже становятся «первой точкой входа» пациентов в медицину
- Но именно на клинических крайностях точность пока недостаточна
- Ошибки логистики могут создавать ложное чувство безопасности или, наоборот, перегружать систему
Позиция разработчика
OpenAI заявляет, что результаты не полностью отражают реальное использование и модель продолжает обновляться.
Вывод
ИИ-ассистенты в здравоохранении — мощный инструмент, но их клиническое применение требует независимой валидации, прозрачности и строгих стандартов безопасности.
Новость подготовлена командой Evercare