Телефонные мошенники научились подделывать голоса, ЦБ РФ предупредил о новых видах мошенничества с нейросетями в Волгограде.
Могут ли мошенники подделать голос и украсть деньги со счета?
Мошенники придумали новую схему развода с подменой голоса. Будьте бдительны | Полезные новости: мошенники подделывают голоса родных и близких, индексация маткапитала и ещё 40 выплат и другое. |
Мошенники научились подделывать голоса и видео. Как распознать подмену | Полезные новости: мошенники подделывают голоса родных и близких, индексация маткапитала и ещё 40 выплат и другое. |
Мошенники научились подделывать голоса с помощью нейросети — 16.08.2023 — В России на РЕН ТВ | «Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса. |
Мошенник подделал голос друга и выманил 50 000 ₽
«Атаковали даже мэра Марченко»: мошенники подделывают голоса и лица жителей Волгограда с помощью нейросетей. Как сообщили специалисты Центра цифровой экспертизы Роскачества, мошенники научились имитировать голос человека с помощью нейросети. Мошенники научились подделывать голоса родных потенциальной жертвы. Кроме того, они создают адресные схемы, которые составлены по цифровому портрету человека, сообщили «РИА Новости» в Центробанке. Также развивается технология deepfake: преступники подделывают голос близких людей жертв. В Атырау полицейские задержали мошенника, который с легкостью подделывал свой голос, сообщает
Почему сработал обман
- Новый прием мошенников: синтез голоса
- Содержание
- Нейросеть подделывает голоса ваших близких: как уберечься от новой мошеннической схемы | Финтолк
- Накатанные схемы уже не в моде, но работают
- Даже начинающие мошенники могут быть опасны
- Могут ли мошенники подделать голос и украсть деньги со счета? | Эксперты объясняют от Роскачества
ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
Мошенники начали подделывать голоса: Луки. Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта могут имитировать голос позвонившего вам знакомого или родственника. Для этого мошенникам требуется образец голоса, который без труда можно найти в мессенджере, где практически все пользователи отправляют голосовые сообщения. Подделка голоса осуществляется при помощи различных сервисов и программ, способных создавать голосовые аналоги человека на основе записанных образцов. Качество синтезированного голоса зависит от точности и количества записанных образцов.
Благодаря современным технологиям, хакерам достаточно всего 20-секундного фрагмента разговора для создания копии голоса любого человека. Мошенники добывают образцы голоса потенциальной жертвы разнообразными методами: используют общедоступные аудио- и видеозаписи из интернета, а также данные, полученные при утечках биометрической информации. Кроме того, они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия.
Теперь мошенники, используя современные технологии, научились успешно подделывать голос человека, который без труда они берут из открытых источников голосовые сообщения в мессенджерах , а также используют общедоступные аудио- и видеозаписи из интернета. Для того чтобы научить нейросеть говорить вашим голосом, ей достаточно 20-секундного фрагмента разговора для создания копии. Однако беспокоиться, что банковская биометрия может тоже оказаться в руках мошенников, не стоит. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков, которые восстановить практически невозможно. Если вам кто-то звонит с неизвестного номера и говорит голосом вашего родственника или хорошего знакомого, то эксперты советуют соблюдать основное правило — не предпринимать необдуманных действий.
Ранее сообщалось, что новым "помощником" хакеров стал искусственный интеллект ИИ. С его помощью мошенники начали создавать аудиосообщения и вымогать средства.
Преступная схема следующая: сначала злоумышленник взламывает аккаунт пользователя в Telegram или WhatsApp принадлежит корпорации Meta, которая признана экстремистской и запрещена в России и скачивает оттуда голосовые сообщения. Затем нейросеть, используя полученные данные, создает новые сообщения, с помощью которых мошенник вымогает деньги. Искусственному интеллекту достаточно и трех секунд речи оригинального носителя для того, чтобы дипфейк получился убедительным.
Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека. Например, позвонивший вам в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег. Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке. Звонивший под разными предлогами уговаривает отправить деньги на чужую карту или перевести их по чужому номеру телефона. Мошенник легко оправдается, почему перевод нужно осуществить другому человеку — можно сказать, что это счет продавца, друга, который находится рядом или что телефон разрядился. Нередко злоумышленники звонят в ночное время, чтобы застать жертву врасплох. Обычно речь идет о небольшой сумме, поэтому вопросов у жертвы не возникает и, как следствие, деньги попадают в руки мошенников. Можно ли защититься от нового вида мошенничества? Эксперты Центра цифровой экспертизы Роскачества подготовили 10 правил цифровой безопасности, которые помогут вам не попасться на новую мошенническую схему: - Не отвечайте на звонки с подозрительных номеров, чтобы не дать возможности украсть ваш голос. Можно воспользоваться услугой защиты от спама и мошенников от операторов мобильной связи; - Помните, подделку голоса можно отличить по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться. Но главное: голос нейросети звучит немного механически и безэмоционально; - Спросите у звонящего какой-то факт, который должен быть известен только вам и ему. Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества: «Схемы мошенничества остаются неизменными, однако использование современных технологий во многом развязывает руки злоумышленникам, что позволяет им старые успешные схемы подавать под новым углом.
Могут ли мошенники подделать голос и украсть деньги со счета?
Это занимает секунды, а не минуты или часы, и любой, у кого есть немного времени и доступ к YouTube, может понять, как это сделать", - объясняет Бакли. Появились удивительные технологии, которые еще недавно были бы научной фантастикой. Это прекрасно для инноваций, но есть и обратная сторона, когда эта технология попадает не в те руки". Мир мошенничества с дипфейками С момента своего появления deepfake использовались во вредоносных целях, начиная от подделки политических речей и заканчивая изготовлением порнографических материалов.
Однако в последнее время их использование находит все большее применение в мире мошенничества. В последнее время участились случаи мошенничества с использованием искусственного интеллекта, когда человеку звонит или даже звонит по видеосвязи его близкий человек, говоря, что он попал в беду и ему нужны деньги", - рассказывает Бакли. Сведения о человеке берутся из данных, доступных в Интернете.
Вместо этого мошенники полагаются на страх и безвыходную ситуацию, когда вы впадаете в панику и не замечаете несоответствий Хотя эти мошеннические действия могут иметь различные формы, обычным форматом является звонок со случайного номера. Собеседник с помощью deepfake выдает себя за члена семьи или человека, который обычно рассчитывает на деньги. Это может быть и голосовое сообщение, когда у звонящего может быть готовый сценарий.
В полном звонке мошенника часто бывают большие паузы, когда он заставляет голосовой генератор создавать ответы на задаваемые вопросы. При использовании базовых технологий такие подделки вряд ли будут идеальными, вместо этого предлагается версия голоса, которая может быть немного искажена.
Молодой человек рассказал, что нашел подработку в интернете. Ему надо было забирать денежные средства с указанных адресов и переводить на определенные счета, оставляя себе процент от переданных денег. На момент задержания он уже успел перевести деньги потерпевшей на другой банковский счет. Расследование уголовного дела продолжается.
С подобными уловками злоумышленников уже успели столкнуться несколько человек. Первым оказался мужчина, которому мошенники позвонили в позднее время. Представились его сыном и разыграли классическую схему — якобы парень попал в аварию, телефон садится, срочно нужны деньги. Несмотря на то, что преступники подделали не только голос, но и номер, мужчина засомневался и решил перезвонить сыну. Естественно, ни в какую аварию тот не попадал. Второй была девушка, решившая продать дорогой браслет Bulgari с бриллиантами за 500 тысяч рублей.
Также развивается технология deepfake: преступники подделывают голос близких людей жертв. Кибермошенники нередко представляются известными сервисами доставки: они отправляют поддельные ссылки якобы для отслеживания статуса заказов. Также злоумышленник может попросить жертву перейти в мессенджер из официального приложения.
Центробанк: мошенники стали чаще имитировать голоса родных и знакомых россиян
Несмотря на то, что преступники подделали не только голос, но и номер, мужчина засомневался и решил перезвонить сыну. Естественно, ни в какую аварию тот не попадал. Второй была девушка, решившая продать дорогой браслет Bulgari с бриллиантами за 500 тысяч рублей. С ней связались мошенники, изобразили покупателей и предложили перевести деньги на карту подруги у девушки не было доступа к своей карте , попросив ее номер телефона. Через какое-то время с этого номера позвонила будто бы та самая подруга и подтвердила перевод. Девушка отдала мошенникам браслет и уже позже узнала, что на самом деле разговаривала не с подругой, а с нейросетью.
Мошенники добывают образцы голоса потенциальной жертвы разнообразными методами: используют общедоступные аудио- и видеозаписи из интернета, а также данные, полученные при утечках биометрической информации.
Кроме того, они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия. Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе ИИ. Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. Могут ли мошенники позвонить в банк и украсть деньги? С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет.
Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в СберБанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации.
Мошенники получали доступ к аккаунту пользователя, просматривали историю переписок, чтобы максимально скопировать манеру общения реального человека, и отправляли людям из списка контактов сообщения с просьбой перевести деньги. Для убедительности после нескольких текстовых сообщений они присылали голосовое, которое или было сгенерировано с помощью искусственного интеллекта, или смонтировано из фрагментов старых аудиосообщений из переписок. Как защитить свой голос от мошенников? Юрист по интеллектуальной собственности Анна Лапа в разговоре с «Постньюс» отметила, что чей-либо голос защитить никак нельзя, но и отобрать его — тоже.
Она подчеркнула, что нельзя заставить человека подписать договор и сказать ему: «Теперь ты не можешь пользоваться своим голосом». Однако в случае с записью голоса ситуация другая, пояснила эксперт, поскольку это уже материальная фиксация голоса, которая может считаться одним из видов фонограммы. Запись речи человека без его согласия и ее использование является нарушением, однако, отметила юрист, противостоять сбору таких данных и их распространению очень сложно, особенно, если об этом стало известно постфактум. Чтобы избежать незаконной записи голоса, юрист советует поставить определитель номера, не отвечать на звонки с незнакомых номеров или не отвечать голосом, пока собеседник не объяснит цель звонка.
Что делать, если мошенники записали ваш голос? Но в том случае девушка заключила договор, который был нарушен второй стороной. Актриса записала голос для обучения ИИ банка, а им озвучили порно. Как такое возможно?
Татьяна Красногорская пояснила, что голос человека с точки зрения права относится к биометрическим персональным данным и подлежит шифрованию. Эксперт добавила, что если голос попал в руки мошенников из-за утечки данных оператора связи или банка, можно подать иск в суд о компенсации морального вреда, но ее сумма будет формальной — в среднем до 10 тыс.
В конце декабря полицейские Северной столицы обезвредили организованную группу телефонных мошенников. По версии следствия, злоумышленники приобрели для совершения преступлений спецоборудование — телефонные шлюзы и другие устройства.
Они позволяли совершать звонки из-за границы. Лента новостей.
Мошенники начали подделывать голоса: Луки.ру выяснили, смогут ли они оформить кредит в банке
В Электрогорске задержали мужчину, который при помощи голоса умудрился обогатиться более чем на четверть миллиона рублей. Телефонные мошенники начали осваивать новые технологии, теперь они взяли на вооружение нейросети, которые способны подделывать чужой голос. Теперь мошенники с помощью нейросетей могут подделывать голоса прямо во время разговора. Мошенники подделали голос родственника жертвы, который из-за этого лишился 100 тысяч рублей. Из-за комплексного и детализированного подхода мошенники сейчас могут подделать буквально все.
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись
С помощью специальных программ мошенники воспроизводят голоса родных потенциальной жертвы. Мошенники убедили врача оформить три кредита и перевести все свои деньги на неизвестные счета, напугав списанием средств в пользу Украины и ВСУ. Мошенники для обмана россиян стали подделывать голоса родных и знакомых потенциальной жертвы, сообщили РИА Новости в пресс-службе регулятора.
Информационная безопасность операционных технологий
«Атаковали даже мэра Марченко»: мошенники подделывают голоса и лица жителей Волгограда с помощью нейросетей. Новости Технологии 29 июля 2022. Телефонные мошенники начали подделывать голос «Алисы». «Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка. Телефонные мошенники начали осваивать новые технологии, теперь они взяли на вооружение нейросети, которые способны подделывать чужой голос. Для подделки голоса мошенникам будет недостаточно записанных фраз.
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно. Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям. Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Отвечая на телефонные звонки, люди обычно не сомневаются, что говорят именно с тем, чей номер записан в телефонной книжке. Если звонивший попросил перевести небольшую сумму на неизвестный счет или номер телефона — не проблема. Ведь вы узнали голос собеседника и без сомнений выполните просьбу.
Позже выясняется, что это новая уловка аферистов. Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека. Например, позвонивший вам в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег. Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке. Звонивший под разными предлогами уговаривает отправить деньги на чужую карту или перевести их по чужому номеру телефона. Мошенник легко оправдается, почему перевод нужно осуществить другому человеку: можно сказать, что это счет продавца, друга, который находится рядом, или что телефон разрядился.
Нередко злоумышленники звонят в ночное время, чтобы застать жертву врасплох. Обычно речь идет о небольшой сумме, поэтому вопросов у жертвы не возникает, и, как следствие, деньги попадают в руки мошенников. Справочно Эксперты Центра цифровой экспертизы Роскачества отмечают, что в скором времени на смену аудиозвонкам, сгенерированным нейросетью, придут видеозвонки Deepfake. Примеры подобных мошеннических схем уже существуют, но пока они не получили широкого распространения.
Такая технология применяется сегодня и для создания компрометирующего материала для шантажа, — говорит он. Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека родственника или коллеги. Они просят перевести деньги таким способом или сообщить код из СМС.
С помощью ИИ мошенники могут автоматизировать этот процесс, масштабировать атаки и увеличить их эффективность, — отметил эксперт.
Пожилая женщина отдала незнакомцу 100 тыс. Как сообщают в пресс-службе ГУ МВД России по Пермскому краю, сотрудники уголовного розыска в течение нескольких дней установили и задержали подозреваемого. Молодой человек рассказал, что нашел подработку в интернете. Ему надо было забирать денежные средства с указанных адресов и переводить на определенные счета, оставляя себе процент от переданных денег. На момент задержания он уже успел перевести деньги потерпевшей на другой банковский счет.
Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям. Мошенники подделывают голоса, притворяясь вашими родственниками или знакомыми Для создания убедительного аудиосообщения преступники используют нейросети, с помощью которых можно воспроизвести интонацию, тембр голоса и особенности речи конкретного человека.
Например, позвонивший вам в мессенджер ребенок, родственник или знакомый просит срочно перевести небольшую сумму денег. Причина может быть какая угодно — ребенку срочно нужно сделать подарок другу или учительнице, пожилому родственнику не хватает небольшой суммы на покупку лекарств в аптеке. Звонивший под разными предлогами уговаривает отправить деньги на чужую карту или перевести их по чужому номеру телефона. Мошенник легко оправдается, почему перевод нужно осуществить другому человеку — можно сказать, что это счет продавца, друга, который находится рядом или что телефон разрядился. Нередко злоумышленники звонят в ночное время, чтобы застать жертву врасплох. Обычно речь идет о небольшой сумме, поэтому вопросов у жертвы не возникает и, как следствие, деньги попадают в руки мошенников. Можно ли защититься от нового вида мошенничества? Эксперты Центра цифровой экспертизы Роскачества подготовили 10 правил цифровой безопасности, которые помогут вам не попасться на новую мошенническую схему: - Не отвечайте на звонки с подозрительных номеров, чтобы не дать возможности украсть ваш голос.
Можно воспользоваться услугой защиты от спама и мошенников от операторов мобильной связи; - Помните, подделку голоса можно отличить по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться. Но главное: голос нейросети звучит немного механически и безэмоционально; - Спросите у звонящего какой-то факт, который должен быть известен только вам и ему.
Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта
Мошенники активно выманивают образцы голоса россиян | Мошенники могут попытаться с полученной записью голоса обратиться в банк, чтобы от имени другого клиента совершить различные финансовые операции. |
Мошенники научились подделывать голоса и видео. Как распознать подмену | Банки.ру | Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека (родственника или коллеги). |
«Совпадение полное»: мошенники подделывают голоса родных и близких
Эксперт рассказал, как распознать в телефонном собеседнике мошенника – Москва 24, 25.12.2020 | «Атаковали даже мэра Марченко»: мошенники подделывают голоса и лица жителей Волгограда с помощью нейросетей. |
Мошенники начали использовать поддельные голоса родственников жертв | Правмир | и аудиодипфейки. |
Мошенники научились подделывать голоса и видео. Как распознать подмену | Банки.ру | и аудиодипфейки. |
Телефонные мошенники стали подделывать номера и голоса родственников | Мошенники научились клонировать голоса детей и играя на родительских чувствах вымогают у них крупные суммы. |
Мошенники подделывают голоса и крадут деньги
Полезные новости: мошенники подделывают голоса родных и близких, индексация маткапитала и ещё 40 выплат и другое. Из-за комплексного и детализированного подхода мошенники сейчас могут подделать буквально все. В Электрогорске задержали мужчину, который при помощи голоса умудрился обогатиться более чем на четверть миллиона рублей.