Врачи с подозрительностью относятся к советам, получаемых от искусственного интеллекта

Врачи с подозрительностью относятся к советам, получаемых от искусственного интеллекта

15 Apr 2021
34
Прослушать

Информационно емкий характер здравоохранения делает его одним из наиболее перспективных направлений применения искусственного интеллекта и алгоритмов машинного обучения. Применение искусственного интеллекта для классификации медицинских изображений показало отличные результаты в решении нескольких задач, часто наравне и даже выше, чем у специалистов в области медицины.

В последнее время для поддержки принятия решений для таких клинических направлений, как радиология, были разработаны модели искусственного интеллекта, однако мало что делается для оценки потенциального влияния таких систем в реальной жизни. До сих пор неясно, как эффективно интегрировать инструменты искусственного интеллекта с врачами, принимающими решения - в тех немногих случаях, когда системы были внедрены и изучены, улучшенных клинических результатов не наблюдалось.

Отмечается недоверие врачей к таким системам, при этом сообщаемые поведенческие факторы включают в себя как скептицизм или недоверие к алгоритмическим советам (алгоритмическая неприязнь), так и большую готовность следовать алгоритмическим советам по сравнению с человеческими.

Команда ученых из Массачусетского технологического института (МТИ) и Регенсбургского университета исследовала, как врачи реагируют на диагностические советы, которые они получают от программной системы на основе алгоритма машинного обучения, в сравнении с такими же советами, получаемыми от экспертов-людей.

Рентгенологи и врачи-нерадиологи анализировали рентгенограммы грудной клетки, получая либо точные, либо неточные советы, которые, как им говорили, были либо сгенерированы компьютерной системой, либо разработаны экспертом-человеком. Радиологи оценили советы, которые, по их мнению, были сгенерированы искусственным интеллектом, как "более низкокачественные". Остальные участники эксперимента посчитали рекомендации искусственного интеллекта и советы человека примерно одинаковыми по качеству.

На самом деле все советы генерировались людьми, но некоторые из них были помечены как исходящие от системы искусственного интеллекта. При этом точность диагностики была значительно хуже, когда участники исследования получали неточные советы, независимо от предполагаемого источника.

Эта работа поднимает важные вопросы о том, как советы и рекомендации, выдаваемые как системой искусственного интеллекта, так и другими врачами, должны применяться в клинических условиях.