Новая схема: мошенники обокрали украинку, создав ИИ-дипфейк ее подруги-волонтерки
Новая схема: мошенники обокрали украинку, создав ИИ-дипфейк ее подруги-волонтерки

Новая схема: мошенники обокрали украинку, создав ИИ-дипфейк ее подруги-волонтерки

Дипфейк убедил жертву, что она общается со своей подругой с помощью "подтверждающих" аудио и видео, а также характерных слов и смайликов.

Мошенники выманили у жительницы Ровненской области деньги, использовав для этого искусственный интеллект (ИИ). Об этом сообщила пресс-служба Полиции Ровненской области в Facebook.

Сообщается, что женщина из Ровненского района получила от своей близкой подруги сообщение с просьбой одолжить деньги. Зная, что подруга занимается волонтерством, женщина перечислила ей 4 000 гривен.

Как отмечают в полиции, "подруга" оказалась ИИ-дипфейком, созданным мошенниками. Дипфейк переписывался с жертвой языком, присущим ее подруге, используя характерные слова и смайлики. Более того, женщина получила аудио и видео, "подтверждающие" личность подруги.

По данным правоохранителей, женщина заподозрила неладное, когда "подруга" попросила больше денег. Связавшись с упомянутой подругой-волонтеркой, она поняла, что перевела деньги мошенникам.

Важно Мошенники манипулируют "тысячей Зеленского": как получить деньги, не потеряв свои

"Оказывается, мошенники работают по новой схеме: с помощью искусственного интеллекта формируют аудио и видео с нужным текстом подобным владельцу аккаунта голосом и лицом. Поэтому, в своих действиях мошенники становятся более убедительны, а у жертвы не возникает сомнений в своих действиях", — подчеркнули в полиции.

Чтобы не стать жертвой дипфейка, правоохранители советуют всегда перезванивать человеку, который просит деньги. Если такой возможности нет, можно в переписке спросить информацию, о которой знает только этот человек.

Также сообщалось, что жительница Тернополя потеряла более 100 тысяч гривен, откликнувшись на объявление о работе за границей.

Теги по теме
Украина
Источник материала
loader
loader