Начиная с 2024 года сектор здравоохранения сектор здравоохранения может подвергнуться многочисленным кибератакам с использованием искусственного интеллекта, прогнозируют в «Информзащите». Инструменты искусственного интеллекта способны создавать целевые атаки, запуская сложные, более реалистичные фишинговые электронные письма.
Больницы и клиники уже давно становятся жертвами взломов, основанных на фишинге. Но с появлением ИИ хакерские уловки выглядят еще более убедительными, что приведет к еще большему количеству мошенничеств в ближайшем будущем. Эксперты предупредили, что инструменты искусственного интеллекта создают более реалистичные целевые фишинговые сообщения от высшего руководства к сотрудникам низшего звена. Например, ChatGPT позволяет пользователям выбирать персонажей управленческих ролей, таких как генеральный директор, финансовый директор или директор по маркетингу, и подражать их стилю письма.
Благодаря ИИ возможность запускать сложные фишинговые электронные письма появилась даже у неопытных хакеров, чем они уже пользуются. Около 80% руководителей служб безопасности подтвердили, что подвергались атакам на электронную почту, сгенерированным искусственным интеллектом, или, по крайней мере, подозревали причастность инструментов искусственного интеллекта.
По мнению экспертов, отрасль здравоохранения особенно восприимчива к фишинговым атакам из-за огромного объема атак, нацеленных на нее по сравнению с другими. Кроме того, сектор здравоохранения имеет обширную цепочку поставок и партнерскую сеть, что дает злоумышленникам возможность использовать фишинг для распространения поддельных страховых претензий или поддельных счетов-фактур на медицинское оборудование.
Для того, чтобы предотвращать фишинговые атаки, в том числе те, которые дополнены ИИ, необходимо иметь глубокоэшелонированную защиту. Она включает в себя настройку почтовых серверов для фильтрации спама или внедрение платформы фильтрации спам-шлюза с использованием программного обеспечения для защиты конечных точек и многофакторной аутентификации. Еще одним важным фактором является осведомленность сотрудников.
Помимо защиты от новых фишинговых схем компаниям также необходимо помнить об угрозах, связанных с развертыванием ИИ в их собственных средах. Внутреннее использование нейросетей для повышения эффективности персонала и ИИ-помощников с выходом в интернет также может быть использовано не по назначению, если отсутствует их тщательное обучение. Информация о процессах, внутренние документы могут стать источником для разработки стратегий атак и компрометаций. Поэтому ИИ для внутреннего использования должен быть тщательно разработан наряду с политикой, учитывающей ограничения обучающей информации.