Полезное обо всём

В Госдуме предупредили, что мошенники начали воровать голоса из видео в соцсетях

Кибермошенники начали воровать голоса людей из видео в соцсетях, после чего использовать схему обмана по выманиваю денег у родственников жертвы.

Фото: Baltphoto/Вероника Овсянникова
Как предупредили в Госдуме, аферисты активно применяют технологии искусственного интеллекта для подделки голоса. Образцы речи собирают заранее из открытых источников – соцсетей, видеороликов или утечек данных, пишет РИА Новости.

После этого с помощью специальных программ мошенники создают синтезированный голос, который практически не отличим от оригинала.

Среди возможных махинаций – звонки от «родственников» с просьбой о финансовой помощи, от «представителей» банков для подтверждения операции, имитировать аферисты могут даже голос начальников для выманивания денег у подчиненных.

Самая распространенная схема – звонок от «родственника» в беде. Мошенники звонят голосом близкого человека – ребенка, родителя или супруга – и сообщают о срочной ситуации: аварии, задержании полицией или необходимости срочного лечения.

Используя эмоциональное давление, аферисты просят перевести деньги на указанный счет. Часто злоумышленники знают реальные данные жертвы, имена родственников или детали их жизни, что делает обман более правдоподобным.

Применяют кибермошенники поддельные голоса для атаки на компании. Они звонят от имени якобы руководителя бухгалтеру или другому финансовому сотруднику и просят срочно перевести деньги на указанный счет под предлогом заключения сделки или урегулирования форс-мажорной ситуации.

Adblock
detector