Мошенничество с использованием искусственного интеллекта: дипфейки
Мошенники могут использовать персональные голосовые приветствия на автоответчиках для создания дипфейков* ,сообщают «Известия».
Сгенерированные при помощи искусственного интеллекта (ИИ) голосовые дипфейки уже несколько лет используются злоумышленниками.
По словам ведущего аналитика департамента Digital Risk Protection компании F6 Евгения Егорова, на сегодняшний день существует множество инструментов для создания поддельных видео- и аудиосообщений, которые преступники могут применять даже без особых технических знаний.
Автоответчик – такой же образец голоса, как и телефонный разговор или голосовое сообщение в переписке.
«Автоответчик может воспроизводить фразы, ключевые слова, интонацию и манеру речи человека. А злоумышленник записывает звуковую дорожку и заносит ее в систему ИИ, которая, проанализировав запись, воспроизведёт голос с нужным текстом, необходимым для мошенника», – объясняет эксперт по кибербезопасности Angara Security Никита Новиков.
Сейчас голосовые сообщения, которые мошенники подделывают с помощью ИИ, становятся всё более качественными — интонации голоса всё естественнее, а в записях всё меньше дефектов. Как следствие, распознать фейк становится всё сложнее.
Сами алгоритмы дипфейков — это следствие развития ИИ, который способствует развитию преступности.
Полностью обезопасить себя от копирования собственной речи нейросетями невозможно. Эксперты рекомендуют либо отказаться от автоответчиков, либо использовать аналог от операторов связи — тогда на голосовом приветствии будет звучать голос робота.
*Дипфейк — методика синтеза изображения или голоса, основанная на искусственном интеллекте.
Александрова Мария