
По данным экспертов F.A.C.C.T., киберпреступники освоили технологию создания поддельных видео- и аудиосообщений с помощью искусственного интеллекта для обмана пользователей.
Мошенники активно используют популярный формат коротких видеосообщений в мессенджерах, имитируя внешность и голос реальных людей. Они провоцируют жертву на видеозвонок или запись голоса, после чего создают убедительные дипфейки для обмана родственников и друзей.
Показательный случай произошел в 2019 году в Великобритании. Злоумышленники, применив технологию синтеза речи, позвонили руководителю энергетической компании от имени немецкого топ-менеджера. Имитация голоса и акцента оказалась настолько точной, что жертва перевела аферистам 243 тысячи долларов.
Новым трендом стали фальшивые кастинги для озвучки фильмов и рекламы в социальных сетях. Мошенники предлагают от 500 до 5000 рублей за работу, но истинная цель – получить образец голоса человека. На основе записи они генерируют правдоподобные просьбы о финансовой помощи и рассылают их контактам жертвы.
Специалисты подчеркивают, что современные инструменты для создания дипфейков не требуют специальных навыков. Достаточно короткого разговора или видеозвонка, чтобы обучить нейросеть имитировать конкретного человека. Особую опасность представляет взлом аккаунтов в социальных сетях, где хранятся многочисленные образцы голоса и видео пользователей.
Эксперты рекомендуют проявлять бдительность при общении с незнакомцами в интернете и не отправлять голосовые или видеозаписи сомнительным работодателям, даже если предложение кажется заманчивым.