По словам эксперта, злоумышленники используют работающие с картинками и голосом генеративные сети, чтобы создавать дипфейки – поддельные доказательства событий. Примером такого мошенничества стал случай, когда был создан дипфейк с образом Илона Маска, чтобы написать посты в социальных сетях, содержащие ссылки на мошеннические страницы.
Тушканов рассказал в интервью РИА Новости, что мошенники постоянно осваивают новое. Так, в связи с тем, что люди стали осторожнее в отношении фотографий, злоумышленники начали создавать дипфейковые видео, в которых большинству зрителей пока трудно заподозрить подделку.
Эксперт оговорился, что дипфейки не являются плохой технологией. Они, например, могут использоваться в обучающих видео, чтобы сделать их качественными и синхронизировать речь с движениями губ. Однако мошенники используют дипфейки для того, чтобы заставить людей поверить в их ложные сообщения.
Интернет-обманщикам также помогает популярность нейросетей, например, чат-бота ChatGPT. Они используют доступ к этой платформе для введения людей в заблуждение. Например, мошенники распространяют троянские программы, представляя их как официальное клиентское приложение ChatGPT (в свободном доступе таких пока нет).
В то же время, Тушканов считает, что запрет искусственного интеллекта, который попытались ввести в Италии, не является решением проблемы. Вместо этого необходимо правильно применять технологию и устанавливать соответствующие правила.