
В преддверии новогодних праздников директор по продукту FABULA AI Родион Кадымов рассказал «Газете.Ru» о всплеске мошеннических схем с применением искусственного интеллекта.
Криминальный мир осваивает передовые технологии дипфейков, создавая с помощью нейросетей реалистичные видео- и аудиоподделки. Злоумышленники научились клонировать голоса по 15-секундным записям и генерировать видеообращения, имитирующие внешность реальных людей.
Особую опасность представляет технология Face swap, позволяющая мошенникам отправлять через Telegram видеосообщения от лица родственников жертвы. Преступники комбинируют визуальные эффекты с синтезированным голосом, добиваясь поразительного сходства с оригиналом.
Распознать поддельное видео можно по нескольким признакам. При резких поворотах головы технология может давать сбои, создавая эффект «соскальзывания» маски. Сгенерированный искусственным интеллектом голос часто звучит монотонно, без естественных интонационных переходов.
Мошенники активно эксплуатируют методы социальной инженерии, представляясь сотрудниками банков и служб поддержки. Наиболее уязвимыми становятся пожилые люди и граждане, слабо разбирающиеся в современных технологиях.
Для защиты от злоумышленников эксперт советует проявлять бдительность при получении неожиданных обращений, даже если они поступают от знакомых лиц. При малейших подозрениях на мошенничество рекомендуется немедленно обращаться в службу поддержки соответствующей организации.
Кадымов подчеркнул важность постоянного обучения и осведомленности о новых видах киберугроз. По мере совершенствования технологий искусственного интеллекта преступники находят все более изощренные способы их криминального применения.