ИИ на службе мошенников: когда ваш голос и лицо работают против вас

«Это уже не поддельная подпись на бумаге, а убедительный голос вашего сына в голосовом сообщении. Не просто фото, а видео, где он якобы просит деньги на срочную операцию. И если раньше мошенник обманывал словами, то теперь он действует образами, интонацией и эмоциями. Все как в кино, только в главной роли – вы, а потери вполне реальны», – заметил эксперт. Как отмечает Парфун, ИИ для обмана сегодня используют во всем мире, и Россия – не исключение. Мошенники научились генерировать дипфейки, создавая реалистичные видео людей, которых на самом деле в этот момент рядом нет. По 15-секундной голосовой записи, выложенной вами в соцсети или переданной в мессенджере, можно синтезировать клон голоса. Например, такой фальшивый голос может рассказать вашим родственникам, что вы попали в беду, и попросить срочно перевести деньги. А если у них еще и есть ваше фото – нейросеть «оживит» его, и ваш цифровой двойник уже будет говорить с экранов смартфонов, поясняет эксперт. «Технологии замены лица и клонирования голоса настолько продвинулись, что определить подделку можно разве что по неестественной мимике или плоским интонациям. Но даже это не всегда помогает – ведь обман основан на доверии, а ИИ помогает сделать его визуально и аудиально убедительным. Уже есть реальные случаи, когда родители переводили деньги после звонка от «ребенка», якобы оказавшегося в плену или больнице. Были случаи, когда на руководителей компаний выходили фейковые «клиенты» через Zoom с поддельными лицами и голосами, убеждая в необходимости перевода денег», – рассказывает Парфун. Кроме дипфейков и подделки голоса искусственный интеллект активно применяется для написания фишинговых писем, подчеркнул эксперт. Большие языковые модели, такие как ChatGPT, могут на лету создавать правдоподобные тексты, учитывая личные интересы жертвы, ее место работы и круг общения. Это делает каждое письмо уникальным, как будто оно действительно адресовано конкретному человеку, пояснил Алексей Парфун. Мошенники также регулярно подделывают паспорта, водительские удостоверения, банковские справки. Генеративные ИИ-системы позволяют делать это быстро и с высоким уровнем детализации. Добавьте к этому взлом аккаунтов, сбор данных из соцсетей и мессенджеров, и вы получите полный цифровой портрет жертвы. На его основе злоумышленники могут вести переписку от вашего имени, вымогать деньги, шантажировать или оформлять кредиты. А все начинается с простого: вы по небрежности или случайно оставили где-то копию паспорта или голосовое сообщение. «Что делают наши власти для противодействия этому? Новые меры принимаются регулярно. Сейчас банки имеют право приостанавливать подозрительные переводы на два дня для дополнительной проверки, что уже помогает предотвращать множество мошеннических схем. Граждане также могут самостоятельно установить запрет на оформление кредитов через «Госуслуги», лишая злоумышленников возможности быстро получать займы на свое имя. Параллельно развиваются специальные антифрод-системы, способные выявлять сгенерированный ИИ. С сентября 2025 года вступит в силу еще одна важная мера – «период охлаждения» при оформлении потребительских кредитов. Особое внимание уделяется повышению цифровой грамотности населения через образовательные программы, поскольку именно бдительность и осведомленность людей остаются главной защитой от современных схем обмана», – объяснил эксперт. Тем не менее, добавил Парфун, все вышесказанное не означает, что ИИ нужно демонизировать. Как и любая технология, искусственный интеллект сам по себе не злой и не добрый – все зависит от того, в чьих руках он оказывается, уточнил эксперт. Те же самые нейросети, что помогают врачам ставить диагноз, могут быть использованы для подделки справки об инвалидности. Поэтому важно не только развивать технологии, но и параллельно учить людей быть внимательными, критичными и грамотными. Это и есть главный щит в эпоху, где правда и ложь звучат одним голосом, резюмировал специалист. Стоит добавить, что киберпреступники обладают обширными знаниями о персональных данных граждан РФ, что позволяет им обманывать пользователей и получать доступ к их финансовым сервисам. Изображение сгенерировано нейросетью Kandinsky 3.1

ИИ на службе мошенников: когда ваш голос и лицо работают против вас
© РИА "ФедералПресс"