Мошенники научились подделывать голоса родных потенциальной жертвы. Кроме того, они создают адресные схемы, которые составлены по цифровому портрету человека, сообщили «РИА Новости» в Центробанке.
Компании стали чаще скрывать утечки персональных данных
- Мошенники подделывают голоса и крадут деньги
- Следующий звонок от вашей семьи может оказаться мошенничеством с подменой голоса дипфейком
- Мошенники научились подделывать ваш голос: стоит ли опасаться
- Как мошенникам удается подделать голос?
- Можно ли распознать по голосу телефонного мошенника?
Пенсия.PRO
Тембр, интонация. Да и сам голос, будто записанный на бегу, — все это так напоминало настоящего собеседника. Скорее всего, образец мошенники взяли из аудиосообщений во взломанном мессенджере. Просто надо чистить кэш наверное, убирать голосовые. Тогда не будет таких ситуаций, даже если взломают", — рассказала жертва мошенников Александра Никитина. С появлением новой схемы мошенничества под удар попадают все, кто отправляет голосовые сообщения. И даже любителям текстовых теперь стоит задуматься, какие видео они публикуют в социальных сетях. Ведь для создания клона голоса достаточно записи длиной всего в несколько минут. Возьмем любой ваш сюжет, тут вы говорите что-то, мы возьмем этот голос, дальше закинем в программу", — рассказал специалист по информационной безопасности Роберт Симонян. Нейронная сеть думает и достаточно быстро выдает черновую версию.
Сюда входят голосовые сообщения, которые могут собираться из мессенджеров, обычные прозвоны, во время которых происходит разговор с роботом или с другими физическим лицом.
В случае с популярными людьми, блогерами мошенники могут использовать огромное количество видеозаписей, выступлений, комментариев в СМИ, которые находятся в свободном доступе в интернете", - сказал Бедеров. Он отметил, что в теории, речь можно синтезировать даже по одному слову. Останутся лишь вопросы к качеству такого сообщения, потому что речь конкретного человека окрашена фразами-паразитами и особым тембром.
Телефонные мошенники начали осваивать новые технологии, теперь они взяли на вооружение нейросети, которые способны подделывать чужой голос. Преступники представляются знакомыми жертв и просят перевести деньги под благовидным предлогом. С подобными уловками злоумышленников уже успели столкнуться несколько человек. Первым оказался мужчина, которому мошенники позвонили в позднее время. Представились его сыном и разыграли классическую схему — якобы парень попал в аварию, телефон садится, срочно нужны деньги. Несмотря на то, что преступники подделали не только голос, но и номер, мужчина засомневался и решил перезвонить сыну.
Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества, отметил: «Схемы мошенничества остаются неизменными, однако использование современных технологий во многом развязывает руки злоумышленникам, что позволяет им старые успешные схемы подавать под новым углом.
В наше время каждый, у кого есть смартфон и любая сумма денег на счету, становится потенциальной жертвой аферистов. Важно провести беседу с близкими и установить некую кодовую фразу, чтобы быть уверенным, что входящие звонки не являются мошенническими. Основное правило — не паниковать и не торопиться. Не стоит вестись на манипуляции мошенников и отправлять деньги на незнакомый счет. Для начала свяжитесь со своими родственниками или знакомыми, чтобы проверить информацию о предполагаемой тревожной просьбе». Эксперты Центра цифровой экспертизы Роскачества отметили, что в скором времени на смену аудиозвонкам, сгенерированным нейросетью, придут видеозвонки DeepFake. Примеры подобных мошеннических схем уже существуют, но пока они не получили широкого распространения. Все потому, что технология DeepFake еще недостаточно совершенна, и даже простой интернет-пользователь легко отличит поддельное видео от настоящего. К тому же, киберэксперты не исключают, что в будущем записи разговоров с клиентами аферисты будут продавать. Так же, как сейчас они торгуют базами телефонных номеров.
Содержание
- Могут ли мошенники подделать голос и украсть деньги со счета? | Эксперты объясняют от Роскачества
- ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян
- Как работает новая схема мошенничества с подделкой голоса
- Новый прием мошенников: синтез голоса
- Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
- Мошенники подделывают голоса с помощью нейросетей: как защитить свой голос и не стать их жертвой
В Роскачестве дали советы, как защитить свои биометрические данные от мошенников
Мошенники всё активнее используют нейросети, чтобы подделывать голоса или лица знакомых доверчивых граждан и своровать их кровные. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч. Глава Сбербанка Герман Греф сообщил о телефонных мошенниках, которые совершают атаки на клиентов банков с помощью подделки голоса.
ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
Возможность мошенников подделать голос человека оценили: Общество: Россия: | Новости Технологии 29 июля 2022. Телефонные мошенники начали подделывать голос «Алисы». |
ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы - Российская газета | Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. |
Украденные голоса: мошенники осваивают новый способ обмана россиян | Мошенники для обмана россиян стали подделывать голоса родных и знакомых потенциальной жертвы, сообщили РИА Новости в пресс-службе регулятора. |
Мошенники подделывают голоса: как защитить свои биометрические данные? | Мошенники подделали голос гендиректора московского фитнес-клуба с помощью нейросети и украли выручку. |
Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян
Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян. В Банке России предупредили об использовании мошенниками программ для подделки голосов с целью обмана россиян, сообщает РИА Новости со ссылкой на ЦБ РФ. Эксперты утверждают, чтобы подделать чужой голос нейросети необходим образец.
Могут ли мошенники подделать голос и украсть деньги со счета?
Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. Мошенники начали подделывать голоса россиян с помощью искусственного интеллекта. Об этом сообщает РИА Новости со ссылкой на данные Центробанка. Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах.
ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян
За основу берется информация, которую россияне размещают в соцсетях - это данные о родственниках, друзьях, работе или досуге. Поэтому лучше скрывать от посторонних глаз личную и финансовую информацию. Также необходимо быть осторожными при пересылке важных сведений например, документов с помощью мессенджеров. Не сообщайте данные банковских карт и другую конфиденциальную информацию владельцам сомнительных сайтов. Не совершайте операции по переводу денежных средств, не выполняйте команды посторонних лиц, поступающие по телефону.
Это что-то наподобие дипфейка, но только в аудиоформате. Далее все элементарно: мошенники рассылают творчество нейросети списку контактов взломанного аккаунта, а также во все чаты, где состоит пользователь. К аудиосообщению с просьбой одолжить денег добавляют отфотошопленную банковскую карту. Как правило, злоумышленники просят деньги в долг. Однако мошенники используют мощные психологические приемы, чтобы запутать жертву. Например, сообщают, что случилась беда и нужно передать деньги курьеру, который сейчас приедет, рассказала Финтолку эксперт по банкротству компании «Финансово-правовой альянс» Евгения Боднар. И здесь, к сожалению, нередки случаи, когда пострадавший самостоятельно оформляет заем и переводит средства, следуя указаниям мошенников. Конечно, чаще всего, на эту удочку попадаются пожилые люди», — сообщила эксперт. Топ-5 схем обмана на «Авито»: помогаем обмануть мошенников Реальный кредит при фейковом голосе Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. Все дело в том, что банки не оформляют кредит только по одному звонку: необходимо пройти аутентификацию например, назвать секретное слово или код из СМС. Однако если аферисты смогли получить доступ к телефону и, например, мобильному банкингу, то оформить кредит на жертву — дело техники.
Самый важный принцип здесь — не торопиться переводить деньги. Мошенники стараются ввести жертву в замешательство — не дать ей время оценить обстановку и свои действия. Поэтому дождитесь от человека ответа через другие каналы связи», — настаивает эксперт. Стоит также критически относиться к сообщению с просьбой о материальной помощи. Хотя нейросети развиваются бешеными темпами, все же они далеки от идеала. Несостыковки в звуке, нечеткое произношение, помехи в микрофоне, общение односложными фразами — все это может выдать мошенника. При любом сомнении стоит поиграть в сыщика и задать человеку вопрос, ответ на который может знать только он, рекомендуют специалисты. Мошенники придумали новую схему хищения пятитысячных банкнот Эксперты полагают, что схем с использованием ИИ будет только больше, и это подтолкнет социальные сети и мессенджеры к развитию охранных алгоритмов. В ближайшее время они начнут применять поведенческую аналитику, основанную на том же ИИ для защиты своих клиентов от таких атак. При этом на рынке уже сегодня достаточно специальных решений, связанных с анализом аномального поведения пользователей в корпоративных сетях, например, Ankey ASAP. Они будут доступны на премиальных подписках мессенджеров и в виде специализированных персональных защитных приложений, в которые будут преобразованы существующие антивирусные программы», — рассуждает главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников.
Требования матери дать ей возможность поговорить с дочерью злоумышленники проигнорировали. Дженнифер ДеСтефано в это время планировала забрать свою младшую дочь Обри из танцевальной студии, где у той только что закончились занятия. В приступе ужаса и паники она бросилась внутрь, трясясь и умоляя кого-нибудь помочь. Никакого похищения не было Мать другого ребёнка набрала 911 и попыталась объяснить, что происходит. Диспетчер моментально заподозрила, что речь идёт о мошенничестве, и что в реальности никакого похищения не было. В первую очередь, потому, что поговорить с дочерью Дженнифер не позволили. О чём она и сообщила звонившей. Очень скоро это подтвердилось: после нескольких неудачных попыток дозвониться до Брианны, та перезвонила сама, недоумевая, что случилось. В действительности они вместе с отцом спокойно катались на лыжах в 110 милях от дома.
Мошенники массово воруют голоса россиян. Как не стать их жертвой?
При возникновении сомнений лучше связаться с человеком, от имени которого ведется разговор. В январе стало известно , что вымогатели используют нейросети для подделки войсов в мессенджере Telegram. Преступники получают доступ к аккаунту, затем имитируют голос и начинают отправлять аудио с просьбами о переводе денег.
Сюда входят голосовые сообщения, которые могут собираться из мессенджеров, обычные прозвоны, во время которых происходит разговор с роботом или с другими физическим лицом. В случае с популярными людьми, блогерами мошенники могут использовать огромное количество видеозаписей, выступлений, комментариев в СМИ, которые находятся в свободном доступе в интернете", - сказал Бедеров. Он отметил, что в теории, речь можно синтезировать даже по одному слову. Останутся лишь вопросы к качеству такого сообщения, потому что речь конкретного человека окрашена фразами-паразитами и особым тембром.
Номер высвечивался её, но дозвониться родители не смогли. В конечном итоге мать с отцом «похищенной» отправились в полицейский участок. Там воспользовались своим доступом к телекоммуникационной базе данных и определили — входящий звонок на самом деле шёл с виртуального номера, который начинался на «00» и был подменен на номер дочери.
Это дало повод полицейским сказать родителям, что те столкнулись с мошенниками и что не надо пересылать им каких-либо денег. В конечном итоге, разумеется, именно так и оказалось. Девушка оказалась жива-здорова, никто её не похищал, а родители не потеряли свои деньги. Что нужно сделать, чтобы не обманули телефонные мошенники, которые используют нейросети? Современные нейросети с большой убедительностью подделывают голос в потоковом режиме и с меньшей способны подделать видео в живом разговоре. Последнее, впрочем, упирается в доступную вычислительную мощность и при наличии некоторого количества видеокарт можно будет убедительно изменить свою внешность в хорошем разрешении и в режиме реального времени. Перезвони Итак, вам позвонил кто-то из друзей и родственников и заявил, что ему срочно нужны деньги. Первым делом необходимо позвонить на номер этого человека. Одно дело подделать номер для исходящего звонка, другое дело для входящего.
В идеале, стоит совершить видеозвонок на случай того, что технические возможности мошенников ограничены только подделкой голоса. Если же есть сомнения даже во время видеозвонка, то стоит спросить собеседника о чём-то, что известно только ему. Желательно что-то крайне каверзное, что не мелькало в переписке вполне возможно, что через какое-то время можно будет натравить нейросети и на неё тоже при взломе — скорее всего, этого будет достаточно, чтобы понять с кем разговариваешь. Зеркало — друг Еще один способ — попросить собеседника подойти к зеркалу. Нейросеть сможет заменить лицо, но крайне маловероятно, что нейросеть с такой же лёгкостью сможет обсчитать отражение в зеркале. Последнее, кстати, стоит придумать и для малолетних детей на случай «можешь со мной пройти, там твой папа попросил забрать тебя со школы, он за углом ждёт, я видел у него сюрприз — мороженное купил, но тсссс, я про это не говорил, ладно?
В то же время рискуют и родственники публичных людей, поскольку образцы голосов звезд легче найти в открытом доступе, — поясняет Александр Самсонов. Например, у родителей действительно может быть непутевый сын, который попадает в плохие истории. За счет стресса и доверчивости различить тонкости в голосе непросто, — поясняет специалист.
За борьбу с подделками решили взяться на государственном уровне Как отмечает Александров, сегодня круг потенциально успешных атак мошенников расширяется за счет того, что голос, имитированный ИИ, действительно стал похож на оригинал, и в зоне риска находятся люди, которые знают о подобных мошеннических атаках, но не в курсе применения современных технологий в сфере копирования голоса. Как не стать жертвой мошенника Для того чтобы создать голосовой дипфейк, имитирующий речь конкретного человека, злоумышленникам нужны образцы его голоса. Как говорит главный эксперт «Лаборатории Касперского» Сергей Голованов, при наличии нескольких образцов голоса мошенники могут с помощью нейросети создать аудиозапись с необходимым им содержанием. Однако в режиме реального времени создавать подобную запись не получится, — рассказывает эксперт. Образцы голоса потенциальной жертвы для создания дипфейков злоумышленники могут добывать разными путями. Как отмечает Александр Самсонов, мошенникам помогают публичные аудио- и видеозаписи в соцсетях, а также утечки биометрических данных. Кроме того, они могут просто позвонить человеку по телефону и записать его голос на диктофон. Поэтому, чтобы защититься от них, очень важно беречь личную голосовую информацию.
Киберпреступники освоили технологию замены голоса для шантажа и мошенничества — эксперт
ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян | Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. |
Мошенник обманывал людей, подделывая голоса близких по телефону | 360° | сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. |
Мошенники научились подделывать аудио и видео с помощью ИИ - Москва 24 | Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы. |
Информационная безопасность операционных технологий
В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч. Теперь мошенники с помощью нейросетей могут подделывать голоса прямо во время разговора. Телефонные мошенники научились подделывать голоса, ЦБ РФ предупредил о новых видах мошенничества с нейросетями в Волгограде. Телефонные мошенники научились подделывать не только номера, но и голоса.
Мошенники массово воруют голоса россиян. Как не стать их жертвой?
«Атаковали даже мэра Марченко»: мошенники подделывают голоса и лица жителей Волгограда с помощью нейросетей. Напомним, ранее россиян предупредили о новом способе мошенничества в «Телеграме» и во «ВКонтакте» — мошенники научились подделывать голосовые сообщения в мессенджерах с помощью искусственного интеллекта. Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. «Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка.