Мы не готовы к тому, чтобы диагноз нам ставил ChatGPT

Мы не готовы к тому, чтобы диагноз нам ставил ChatGPT

11 May 2023
94

Такие системы, как искусственный интеллект (ИИ) ChatGPT скоро будут влиять на принятие решений о жизни и смерти — когда они станут стандартным инструментом в руках врачей. Некоторые уже экспериментируют с ChatGPT, чтобы проверить, сможет ли он ставить диагнозы пациентам и выбирать методы лечения. Хорошо это или плохо — зависит от того, как врачи будут его использовать.

GPT-4, последнее обновление ChatGPT, может получить отличную оценку на экзаменах на получение медицинской лицензии. Он даже хорошо справляется с задачами, которые, как мы думали, требуют человеческого сострадания, например, подбирает правильные слова, чтобы сообщить пациентам плохие новости.

Эти системы также развивают возможности обработки изображений. На данный момент все еще нужен настоящий врач, чтобы прощупать шишку или оценить состояние порванных связок, но ИИ может прочитать МРТ или КТ и вынести медицинское заключение. В идеале ИИ должен не заменять практическую медицинскую работу, а дополнять ее, но пока мы еще не понимаем, когда и где будет практично или этично следовать его рекомендациям.

Несмотря на то, что у нас под рукой уже больше информации, эксперты в области общественного здравоохранения недавно назвали обилие дезинформации одной из причин нашей относительно короткой продолжительности жизни. И это может стать лучше или хуже с появлением GPT-4.

По словам профессора биомедицинской информатики в Гарварде Эндрю Бима, на самом деле все, что делает такая система, это предсказывает, какие слова должны быть следующими, т.е. использует систему автозаполнения. И все же это очень похоже на мышление. "Удивительная вещь заключается в том, что многие задачи, для решения которых, по нашему мнению, требуется общий интеллект, являются замаскированными задачами автозаполнения, — сказал он. — Это включает в себя некоторые формы медицинских умозаключений".

Целый класс технологий, большие языковые модели, должны заниматься исключительно языком, но пользователи обнаружили, что обучение их большему объему языка помогает им решать все более сложные математические уравнения

Председатель программы биомедицинской информатики в Гарвардской медицинской школе Исаака Кохане говорит, что одна из самых очевидных выгод от использования ИИ заключается в том, что он поможет сократить или устранить многочасовую бумажную работу, которая сейчас мешает врачам уделять достаточно времени пациентам, что часто приводит к выгоранию.

Но он также использовал систему для помощи в постановке диагнозов в качестве детского эндокринолога. В одном случае, по его словам, ребенок родился с неопределенными гениталиями, и GPT-4 рекомендовал провести гормональный тест, а затем генетический тест, который определил причину как дефицит 11-гидроксилазы. Он не только быстро поставил диагноз, но и попросил провести правильное обследование на каждом этапе.

Как и человеческий врач, GPT-4 может ошибаться и не всегда честно говорит о границах своего "понимания". Вы также можете заставить GPT-4 давать разные ответы, попросив его представить, что он врач, который считает хирургическое вмешательство крайней мерой, а не менее консервативный врач. Но в некоторых случаях он довольно упрям. Например, Кохане пытался уговорить его сказать, какие лекарства помогут ему сбросить несколько килограммов, но он был непреклонен, утверждая, что никакие лекарства не рекомендуются людям, у которых нет более серьезного избыточного веса.

Несмотря на его удивительные способности ИИ, пациентам и врачам не следует слишком сильно полагаться на него или слепо доверять ему. ChatGPT и ему подобные — это инструменты, которые требуют большого мастерства для правильного использования. Даже те, кто разбирается в искусственном интеллекте, пытаются понять, как из простой системы автозаполнения возникает процесс, похожий на мышление. Следующая версия, GPT-5, будет еще быстрее и умнее. Нас ждут большие перемены в медицине — и нам лучше сделать все возможное, чтобы быть к ним готовыми.