Злоумышленники применяют нейросети для генерации аудио- и видеоконтента, который впоследствии используют для кражи у пользователей денег и личных данных. О новой схеме обмана рассказала официальный представитель МВД РФ Ирина Волк.
«В основе большинства таких схем лежит способность генеративных моделей создавать правдоподобный текстовый, визуальный или аудиовизуальный контент, который воспринимается потерпевшим как подлинный, что позволяет злоумышленникам имитировать личности доверенных лиц», — сообщила она в беседе с ТАСС. Как объяснила Ирина Волк, такими лицами могут быть сотрудники банков, родственники, представители государственных органов или публичных деятелей.
Используя синтезированные голоса или видеозаписи, мошенники могут убеждать жертв переводить средства или раскрывать персональные данные. Представитель МВД привела пример: незнакомец получил доступ к чужому аккаунту в иностранном мессенджере с целью хищения денег. С помощью нейросети для генерации аудиоматериалов он отправил сообщение с данной страницы, используя голос этого человека, и попросил перевести деньги через систему быстрых платежей. Получивший такое сообщение человек решил, что эта просьба поступила от родной сестры, и перевел необходимую сумму, которая попала в руки к аферистам.