Деньги Здесь: зачем мошенники создают цифровые копии реальных людей
Вместе с Банком России разбираемся, как мошенники используют в своих целях искусственный интеллект. Аферисты стали чаще выманивать деньги в соцсетях и мессенджерах с помощью поддельных видеосообщений. Они создают виртуальные копии реальных людей и рассылают сообщения от их имени. Мошенники взламывают чужой аккаунт, берут из него фотографии, видео- и аудиозаписи человека и загружают их в нейросеть. Искусственный интеллект анализирует черты лица, движения, голос и создает дипфейк - цифровой образ, максимально похожий на свой прототип. Затем преступники записывают ролик с виртуальным двойником. Он говорит, что оказался в беде, например серьёзно заболел, попал в аварию или лишился работы, и просит помочь ему деньгами. Это фальшивое видео обманщики рассылают родным, друзьям и коллегам человека и добавляют свои реквизиты для перевода денег. Иногда мошенники создают дипфейки известных людей, популярных блогеров и отправляют видеосообщения всем их подписчикам. Дипфейк-технологии пока ещё несовершенны, к тому же для создания реалистичной копии требуется большое количество данных. Поэтому подделку можно распознать по некоторым признакам: монотонному голосу, несвойственной человеку мимике или интонациям, дефектам звука и изображения. Но даже если видео не вызывает сомнений, стоит настороженно относиться к просьбам о деньгах и помнить, что аккаунт могли взломать. Прежде чем переводить какие-то суммы, лучше позвонить знакомому и убедиться, что ему действительно нужна помощь. Если нет возможности поговорить по телефону или лично, в сообщении задайте человеку вопрос, ответ на который знает только он. Ещё больше о финансовой грамотности и тонкостях финансовой сферы читайте в нашей еженедельной рубрике, которую мы создаём совместно с Банком России, - "Деньги Здесь".