Этические аспекты использования искусственного интеллекта в здравоохранении

Этические аспекты использования искусственного интеллекта в здравоохранении

03 Mar 2020
690
Прослушать

В последние 20 лет в мире отмечается бурный рост цифровизации, то есть интеграции цифровых технологий в повседневную жизнь путем оцифровки различных данных. К главным достижениям «цифровой революции» относится автономность и самообучаемость технологий. Возникает новая религия - датаизм.

Ее приверженцы считают, что люди не могут больше справляться с потоками данных, поэтому их обработку надо переложить на «умные» алгоритмы, которые являются гораздо более мощными, нежели человеческий мозг. «На практике это означает, что датаисты скептически относятся к человеческим знаниям и мудрости и предпочитают полагаться на Большие данные и компьютерные алгоритмы» (Ю. Харари). Цифровизация трансформирует и область медицины. Сегодня активно разрабатываются алгоритмы для помощи врачам при решении разнообразных задач:

  • Оценка вероятности осложнений заболеваний;
  • Удаленная первая медицинская помощь и сбор данных пациента;
  • Помощь в постановке диагнозов и назначение лечения;
  • Анализ данных тяжелобольных пациентов в режиме реального времени.

Использование инструментов искусственного интеллекта (ИИ) в секторе здравоохранения стремительно расширяется. Электронные медицинские записи являются данными для машинного обучения, а созданные на их основе алгоритмы могут обнаруживать аномалии более точно, чем обученные люди - особенно в области онкологии, кардиологии. Возможности ИИ в сфере здравоохранения кажутся чудесными, но так ли это на самом деле? Об этом размышляет кандидат философских наук, доцент кафедры философии, доцент кафедры биоэтики РНИМУ Елена Валерьевна Введенская.

Существуют ли потенциальные риски при использовании ИИ в медицине, когда вместо пользы для пациентов может быть причинен вред?

- Да, я думаю, что вред может быть причинен, если ИИ неправильно диагностирует заболевание и даст ложные рекомендации по лечению, а врач, пользующийся цифровым помощником, не обнаружит ошибок.

Так, например, известно, что при анализе опухолей суперкомпьютер Watson (IBM) часто давал ошибочные и опасные для жизни пациентов рекомендации. Одним из примеров в документах стал случай 65-летнего мужчины, которому врачи поставили диагноз рака легких и у которого обнаружили мощное кровотечение. Watson предложил назначить мужчине химиотерапию и препарат «Бевакизумаб», однако этот препарат может привести к смертельному кровотечению, а значит его нельзя прописывать людям с сильным кровотечением.

Также пациентам может быть причинен вред из-за утечки их медицинских и персональных данных. Права пациентов на частную жизнь и сохранение конфиденциальности личных данных могут быть нарушены. Данные из электронной карты становятся доступными для страховой компании, которая может повысить цену медицинского полиса и страхования жизни, если пациент не ведёт «здоровый» образ жизни и не выполняет все рекомендации врача по лечению.

Также может возникнуть проблема чрезмерной диагностики. Например, если использовать ИИ для скрининга рака, будет обнаружено множество вещей, которые выглядят как рак, но не угрожают жизни. Гипердиагностика приведет к чрезмерному и подчас ненужному лечению.

Как трансформируется формат отношений между врачом и пациентом, какие могут возникать проблемы, требующие этической оценки?

- Между врачом и пациентом появляется посредник в виде ИИ. Появляется возможность замены врачей «облачным доктором», что влечет за собой отсутствие непосредственного контакта между врачом и пациентом.

У врача, полагающегося на алгоритмы, происходит снижение уровня ответственности.

Врачи могут утратить свои специализированные навыки и эмпатию.

В прошлом году в США, к тяжелобольному пациенту в палату въехал больничный робот, на экране которого появилось изображение лечащего врача (врач использовал видеочат). Без лишних слов он рассказал о неблагоприятном прогнозе. Для облегчения страданий он предложил морфин, однако предупредил, что это еще сильнее затруднит дыхание. Кроме этого, он предложил обеспечить пациенту паллиативную помощь на дому. Родственники были обескуражены не смертельным диагнозом пациента, а той формой, которую выбрал врач для сообщения диагноза. Это как раз пример того, как новые технологии могут отдалять врача от пациента.

Многих пациентов волнуют вопросы конфиденциальности и информированного согласия. Какие действия должна предпринять клиника, чтобы не допустить утечку персональных данных?

- Да, эти вопросы сейчас очень актуальны. Известно, что летом прошлого года в Подмосковье была утечка данных пациентов подстанции скорой помощи. В сеть утекли диагнозы людей, их возраст, адреса проживания, номер СНИЛСа. А если этими данными воспользовались злоумышленники?

Для киберпреступников персональные данные медицинского характера имеют особую ценность, ведь они могут использовать такие данные для получения кредитов на стороннее лицо, для налоговых махинаций, выставления фиктивных счетов страховым компаниям, получения лекарственных препаратов строгой отчетности, продажи баз персональных данных распространителям лекарств, и для других противоправных действий.

Информированное согласие пациенты часто подписывают, даже не читая, а врачи часто не разъясняют, какие побочные эффекты могут возникнуть от лечения. А если информированное согласие будет электронным? Значит, пациенту останется только поставить галочку, что он согласен с лечением. На мой взгляд, это недопустимо и должен быть личный визит пациента к врачу, который в свою очередь должен рассказать пациенту о возможных вариантах лечения, а также о возможных рисках.

Классический для России пример «медицинской утечки» – это «слив» сотрудниками медучреждений данных о тяжелобольных и умерших пациентах ритуальным агентам, которые звонят и даже приходят к родственникам пациентов и предлагают свои услуги.

В основном, речь идет о внутренних «утечках данных», большое количество которых носит случайный характер. Чтобы предотвратить «слив» и «утечки данных», руководство клиники должно в этом отношении работать с персоналом, разъясняя какие санкции будут применены к работнику, уличенному в данном проступке. Также необходимо установить надежную систему информационной безопасности, чтобы защитить данные пациентов как от «слива», так и внешних хакерских атак.

Изменяются способы обмена медицинской информацией. Больные получают доступ к своим медицинским картам. Где проходит граница между самостоятельностью пациента и зоной ответственности врача?

- Больные получают доступ к своим медицинским картам и значит они должны хорошо владеть информацией о состоянии своего здоровья. Это должно поспособствовать формированию большей ответственности пациента за поддержание своего здоровья в порядке (например, с помощью ведения ЗОЖ).

Таким образом, ответственность пациента должна возрастать, но что касается его самостоятельности, то она должна иметь определенные границы. Пациент, без медицинского образования, не должен ставить сам себе диагноз и назначать лечение, ему для этого нужна консультация квалифицированного врача. Ответственность врача за лечение больного, должна оставаться на прежнем уровне.

Искусственный интеллект частично обезличивает взаимоотношения в медицине, и в рамках новой модели пациент взаимодействует с автоматизированными медицинскими агентами и системами, а не с живым человеком. Что должен делать врач, чтобы сохранить эмпатическую связь с пациентом, насколько она важна?

- Верно, ИИ бесспорно обладает потенциалом трансформации и обезличивания отношений в медицине, способствуя социальной изоляции пациентов. На наших глазах меняется парадигма современной медицины. То, зачем люди обычно обращаются к врачам: за установлением диагноза, назначением курса лечения, рецептом, проведением медицинских манипуляций — все чаще будут выполнять машины, оставляя человеку совершенно другую роль в отношениях врача и пациента.

На мой взгляд, освобождение врачей от непосильной задачи сопоставления огромного массива данных для диагностирования заболеваний, позволит им уделить больше внимания заботе о пациентах, то есть, проявить свои человеческие качества в полной мере.

Известно, что успех лечения, на 60% зависит от доверия пациента врачу, которое врач может вызвать только с помощью эмпатии и личного эмоционального контакта с пациентом, при котором у больного возникнет уверенность в искреннем желании врача помочь.

Клиника без персонала в Китае

Известно, что ИИ обладает своей логикой, подчас отличной от логики человека. Его алгоритм не идеален и допускает ошибки. Но когда речь идет о  здоровье, цена ошибки очень высока. Какие этические правила должны быть прописаны для неукоснительного выполнения для врача, который использует ИИ!

- Согласна. У когнитивных систем часто возникают проблемы с качеством и объемом медицинской информации. Накопленные в медкартах пациентов данные могут быть неполными, содержать ошибки, неточности и нестандартные термины. В них недостаточно записей о жизни пациента, его привычках и поведении. Эффективных механизмов сбора этой информации пока нет.

Диагностическая ошибка может возникнуть на первых двух этапах обнаружения и восприятия симптомов: распознавание ведущих проявлений и выявление решающих признаков болезни. В алгоритме (принцип «черного ящика») могут возникать ложные корреляционные зависимости и ошибки и, если система приняла неправильное решение, то невозможно найти ответ! Я считаю, что врач должен относиться к ИИ как к слуге, помощнику, но не как к хозяину. Врач должен перепроверять данные и рекомендации ИИ и всегда должен уметь обосновать, почему он поставил такой диагноз и назначил такое лечение.

В разработку, тестирование и внедрение технологий, используемых в секторе исследований в области цифрового здравоохранения, входят разработчики технологий инструментов», врачи, заказчики, исследователи, участники исследований. Кто из них отвечает за соблюдение этических методов этой работы?

- Прежде всего, надо определить, кто истинный владелец медицинских данных. Кто в какой мере может ими распоряжаться? Пациент, врач, клиника, страховая компания, работодатель или вычислительный сервис? После ответа на эти вопросы, надо уже определить степень ответственности каждого участника и разработать этические методы работы.

Какие стандарты для формирования приемлемых и этических норм должны быть приняты, чтобы исключить риск ущерба от использования цифровых инструментов здравоохранения?

- Наффилдский Совет по биоэтике (Великобритания) признал следующие этические проблемы использования ИИ в медицине:

  • возможность принятия ИИ ошибочных решений;
  • вопрос о том, кто несет ответственность, когда ИИ используется для поддержки принятия решений;
  • трудности в проверке результатов систем ИИ;
  • наличие предубеждений в используемых данных, применяемых для обучения систем ИИ;
  • обеспечение защиты данных;
  • обеспечение общественного доверия к разработке и использованию технологий ИИ;
  • влияние на чувство достоинства людей в условиях социальной изоляции маломобильных граждан;
  • влияние на требования к квалификации медицинских работников; и потенциал использования ИИ в злонамеренных целях.

По мнению Наффилдского Совета по биоэтике, ключевой задачей будет обеспечение того, чтобы ИИ разрабатывался и использовался таким образом, чтобы он был открытым и совместимым с общественными интересами, одновременно способствуя инновациям в секторе здравоохранения.

Я думаю, что необходимы дальнейшие исследования возможностей и ограничений медицинских систем искусственного интеллекта, чтобы разработать данные стандарты.

Материал подготовила Надежда Данилова