Facebook начинает бороться с самоубийствами

25 Dec 2017
2079
Прослушать

Facebook тестирует новую технологию на базе алгоритмов искусственного интеллекта, которая сканирует все посты социальной сети, разыскивая в них шаблоны, ассоциируемые с суицидальными мыслями. Если эта технология находит признаки, вызывающие подозрение, система при определенных условиях посылает пользователю или его друзьям адреса ресурсов на тему психического здоровья, либо связывается с местными службами срочной психиатрической помощи. При этом алгоритм помечает подозрительные посты специальной меткой и отправляет их для реагирования реальному модератору, что позволяет значительно снизить время, через какое пользователь получит так нужную ему помощь.

Facebook уже тестировал технологию обнаружения подозрительных сообщений в социальной сети в США, отправляя при этом предупреждение друзьям пользователя. Теперь Facebook начинает сканировать все виды контента по всему миру, за исключением Европейского союза, где закон, регулирующий правила обращения с персональной информацией, запрещает профилирования пользователей на основе конфиденциальной информации и усложняет использование этого технологии.

Facebook также будет использовать технологию искусственного интеллекта для приоритезации конкретных рисков и определения срочности реагирования, чтобы сообщения, требующие наибольшего внимания, быстрее попадали к модераторам. Кроме того, будут использоваться программные инструменты для непрерывного сканирования местных интернет-ресурсов с целью поиска сайтов, предоставляющих помощь, а также нахождения контактных данных служб, помогающих в таких случаях. При этом в настоящее время компания намерена выделить больше модераторов для предотвращения самоубийств, тренируя их для работы в круглосуточном режиме. Сейчас Facebook имеет уже 80 местных партнеров, таких как Save.org, National Suicide Prevention Lifeline and Forefront, которые поддерживают ресурсы, предназначенные для помощи людям в неустойчивом психическом состоянии.

По словам главы Facebook Марка Цукерберга, "в будущем искусственный интеллект будет способен понимать более тонкие нюансы языка, и будет способен идентифицировать признаки не только суицида, но и запугивания или ненависти".

Алгоритм был "натренирован" путем нахождения шаблонов в словах и изображениях, использованных в постах, которые в прошлом были вручную идентифицированы как связанные с риском самоубийства. Кроме того, он учитывает и комментарии типа "С тобой все в порядке?" и "Тебе нужна помощь?".

Специалисты компании говорят, что "они обсуждали тему с профессионалами в сфере психиатрии и один из самых лучших способов предотвратить суицид — это помочь людям услышать от своих друзей и близких, что их любят и заботятся о них. И это помещает Facebook в действительно уникальную позицию. Мы можем помочь связать людей, терпящих бедствие, с их друзьями или организациями, которые могут им помочь".

Идея проактивного сканирования постов своих пользователей опять напомнила многим людям об их прежних страхах о том, как еще можно использовать эту технологию. И Facebook пока никак не ответил на вопрос, намерен ли он избежать возможности сканирования постов с целью поиска политического инакомыслия, например.