Мошенники используют нейросети для копирования голоса и образа жертвы

Жителей Самарской области предупреждают: мошенники начали использовать в своих преступных схемах искусственный интеллект. Обманщики клонируют голос и имитируют образы. О том, как не попасться на крючок с нейросетью, рассказали специалисты Роскачества.

Фото: unsplash

Эксперты отмечают, что благодаря современным технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, чтобы клонировать голос любого человека. Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота.

Схема обмана та же, но инструменты более прогрессивные. Нейросеть звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобилась помощь на возмещение ущерба при ДТП. При этом нейросеть можно обучить любым языкам или придать необходимый акцент.

Специалисты советуют не вестись на уловку, а бросить трубку, самостоятельно позвонить своим родственникам. Также можно придумать кодовое слово, как в банке. Знать его будут только родные и близкие.

Но что делать, если мошенники подделали не голос, а внешность? Современные технологии позволяют делать и такое – можно наложить ненастоящие изображения или видео на реальные. Технология именуется "дипфейк", и ее уже используют различные блогеры для пародий и розыгрышей.

- Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков якобы родственников, например, пожилым людям. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей, - рассказал руководитель направления информационной безопасности Центра цифровой экспертизы Роскачества Сергей Кузьменко.

Как распознать дипфейк.

- неестественная мимика - движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций;
- низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой - брови, уголки рта;
- звук опережает картинку или не успевает за движениями персонажа.

В целом для обычного пользователя лучший способ защититься от дипфейков - быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.

А пока, чтобы обмануть жителей Самарской области, мошенникам порой достаточно простого доступа в интернет. Так недавно местная жительница взяла кредит и перевела незнакомцам почти 100 тысяч рублей.

Материал по теме

Полная версия