x
»
Быть в курсе событий mHealth
Главное меню
Быть в курсе событий mHealth Подписаться
x
Быть в курсе событий mHealth Подписаться
Плохие новости об искусственном интеллекте: хакеры имеют доступ к тем же инструментам, что и больницы.

Плохие новости об искусственном интеллекте: хакеры имеют доступ к тем же инструментам, что и больницы.

В то время как системы на базе искусственного интеллекта (artificial intelligence, AI) и машинного обучения имеют большие перспективы в сфере обеспечения кибербезопасности, сегодняшняя реальность заключается в том, что и больницы, и хакеры имеют доступ к одним и тем же технологиям. По словам Ли Ким, директора по вопросам конфиденциальности и безопасности HIMSS,

AI — это технология двойного назначения, которую можно использовать как в оборонительных, так и в наступательных целях. Сегодня AI начинают использовать и в злонамеренных целях.

В докладе The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation, опубликованном недавно американским Институтом будущего человечества, указывается на то, что некоторые из тех же "систем, которые исследуют программное обеспечение на предмет уязвимости, могут использоваться как наступательное, так и как оборонительное оружие". В докладе приводится аналогия с тем, что беспилотник для доставки лекарств не сильно отличается от беспилотника для сброса взрывчатки.

В отчете отмечается, что

Злоумышленное использование AI может угрожать цифровой безопасности (например, путем обучения машин для взлома сетей или преследования людей на человеческом или более высоком уровне производительности), физической безопасности (например, частные организации могут перепрограммировать и вооружить коммерчески доступные беспилотники) и политической безопасности (например, посредством наблюдения за частной жизнью, профилирования людей или организации автоматизированных и целевых дезинформационных кампаний).

Вредоносное использование AI повлияет на то, как мы создаем и контролируем нашу цифровую инфраструктуру, а также как мы проектируем и распространяем системы AI. Поэтому это, вероятно, потребует принятия политических и законодательных мер.

Основными способами использования искусственного интеллекта хакерами являются фишинг*, целевой фишинг** и "фишинг по-крупному" (whaling)***.

Проблема фишинга, конечно, сегодня хорошо известна, но использование технологий искусственного интеллекта в этой области, возможно, менее понятно. Как отмечается в отчете,

Технологии на основе искусственного интеллекта обеспечивают снижение затрат, повышение точности фишинга, позволяют использовать более убедительный контент, лучшую адресацию. Они позволяют автоматизировать создание и развертывание рассылки фишинговых электронных писем. Более того, хакеры могут использовать искусственный интеллект для осуществления атак на отдельных людей.

* Фишинг — вид интернет-мошенничества, целью которого является получение доступа к конфиденциальным данным пользователей — логинам и паролям.

** Целевой фишинг — это фишинг, направленный на то, чтобы обмануть конкретного человека или сотрудников конкретной компании. Он намного опаснее, чем обычный фишинг, поскольку киберпреступники специально собирают информацию о жертве, чтобы сделать свое послание-уловку убедительнее.

*** Whaling - особая фишинговая атака, специально направленная на руководителей высокого и высшего звеньев, ответственных за принятие решений по самым важным вопросам, людей, распоряжающихся корпоративными данными и финансами.

Просмотров: 279
×
Вход на сайт
Войти на сайт, используя аккаунт в социальных сетях
×
Учетная запись
×
Подписка на рассылку
×
Обратная связь