Британское правительство начало расследование возможной необъективности AI при принятии решений

21 Mar 2019
380
Прослушать

Первое в мире расследование возможности принятия необъективных решений при использовании систем на основе искусственного интеллекта (artificial intelligence, AI) было начато правительством Великобритании после того, как эти решения начали широко использоваться в разных областях, например, таких как рекрутинг и уголовное правосудие.

Алгоритмы искусственного интеллекта и программы принятия решений все чаще используются для помощи при рекрутинге, в уголовном правосудии и местных органах власти. В основе этих алгоритмов лежат большие массивы данных, которые потенциально подвержены влиянию человеческой предвзятости.

В результате на британский Центр этики данных и инноваций (CDEI) - консультативный орган, который предоставляет рекомендации правительству в отношении социального и этического воздействия технологий, основанных на данных и искусственном интеллекте, - была возложена задача изучения этого вопроса.

По словам председателя CDEI Роджера Тейлора,

Наш центр сосредоточен на решении наиболее серьезных проблем, связанных с технологией, основанной на данных. Это сложные вопросы, и мы должны будем воспользоваться опытом, накопленным в Великобритании и за ее пределами. Если мы сделаем это правильно, Великобритания может стать мировым лидером в области подобных важных инноваций.

CDEI начнет с изучения потенциала необъективности в ключевых секторах, где решения, принимаемые с помощью алгоритмов, могут оказать большое влияние на жизнь людей. К ним относятся: набор персонала, при котором AI может использоваться для фильтрации резюме и определения окончательного списка кандидатов; система уголовного правосудия, где алгоритмы могут давать рекомендации по максимальному сроку наказания; и финансовые услуги, где анализ данных используется для проверки людей на предмет получения займов.

Обеспокоенность по поводу использования алгоритмов искусственного интеллекта для подобных задач появилась после того, как стали известны примеры подобной необъективности. Например, недавно писали о сексистском AI-решении для набора персонала компании Amazon, которое "обучало" себя исключать резюме, в которых упоминается слово "женщина". Аналогичные сомнения вызвало использование AI в системе уголовного правосудия США, где для определения вероятности повторного правонарушения обвиняемого используется код, известный как COMPAS, что приводило к неоднозначным результатам.

Еще более тяжелые последствия могут вызвать ошибочные решения, принятые с помощью AI-решения в сфере здравоохранения, поскольку они влияют на жизнь и смерть человека. Но пока CDEI не включил здравоохранение в список ключевых секторов для расследования в силу как меньшего распространения AI-технологий в этой сфере, так и в связи с более строгим подходом к подготовке наборов данных, используемых в подобных решениях.