Вслед за созданием фейковых аккаунтов в соцсетях и генерацией голосовых
сообщений мошенники научились создавать реалистичные видеоизображения человека
для обмана его родственников и знакомых.
Новый метод обмана основан на дипфейк-технологии. Она позволяет с помощью
искусственного интеллекта на основе фотографий, видео и голосовых сообщений
конкретного человека сгенерировать новое видеоизображение. Эти данные мошенники
получают через взлом аккаунтов в социальных сетях и мессенджерах. При этом видео
может быть достаточно реалистичным: копировать мимику человека, его жесты, походку,
особенности внешности и т.д.
Затем мошенники записывают видеоролик с цифровым двойником, в котором он
рассказывает о своей проблеме и просит перевести деньги на определенный счет. В
качестве ситуации может называться болезнь, ДТП, увольнение, семейные проблемы и
т.д. Видео рассылается родным и знакомым человека.
«Дипфейк-технологии развиваются быстро, а потому цифровая копия может быть
очень высокого качества. Но подделку можно распознать по монотонному голосу,
неестественной мимике и интонациям, дефектам звука и изображения, нереалистичным
обстоятельствам из жизни конкретного человека», – считает эксперт по
кибербезопасности ярославского отделения Банка России Андрей Коценко.
Если знакомый или родственник прислал видео с просьбой дать взаймы, не
спешите сразу переводить деньги. Перезвоните ему, причем не на тот номер, с которого
пришло сообщение, а на тот, который занесен в телефонную книгу. Если нет возможности
связаться, то стоит задать в сообщении личный вопрос, ответ на который знаете только вы
и ваш знакомый.
Чтобы защитить себя от подобных схем, тщательно анализируйте информацию,
которую размещаете в социальных сетях, ограничьте круг тех, кто может видеть вашу
страницу, а также установите надежный пароль в соцсетях и двухфакторную
аутентификацию в мессенджерах.
Источник: https://cloud.mail.ru/attaches/17250019251452055327%3B0%3B1?folder-id=0&x-email=vestnikyar%40mail.ru&cvg=f