Обычно мошенники надевают на себя маску родственника жертвы и меняют голос, а потом рассказывают душераздирающую историю о том, как они попали в беду и что им срочно нужны деньги. Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта могут имитировать голос позвонившего вам знакомого или родственника. Телефонные мошенники научились подделывать не только номера, но и голоса. Для подделки голоса мошенникам будет недостаточно записанных фраз. В Атырау полицейские задержали мошенника, который с легкостью подделывал свой голос, сообщает
Эксперт рассказал, как распознать в телефонном собеседнике мошенника
Украденные голоса: мошенники осваивают новый способ обмана россиян // Новости НТВ | Мошенничество Интернет-мошенники Телефонные мошенники Взлом Видео Вертикальное видео Telegram (ссылка). |
Мошенники могут подделать чужой голос, чтобы украсть деньги | Мошенники с использованием клонированного голоса заявили Дженнифер ДеСтефано (справа), что похитили ее дочь Брианну (слева). |
Мошенники начали подделывать голоса: Луки.ру выяснили, смогут ли они оформить кредит в банке | «Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка. |
ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян | Мошенники вышли на новый уровень: они подделывают не только номера телефонов,но даже голоса звонящих! |
Эксперт предупредил, что мошенники могут подделывать голоса родственников жертв
Эксперты утверждают, чтобы подделать чужой голос нейросети необходим образец. Мошенники могут попытаться с полученной записью голоса обратиться в банк, чтобы от имени другого клиента совершить различные финансовые операции. С помощью поддельного голоса подруги мошенники смогли похитить браслет Bulgari стоимостью полмиллиона у простой и безработной студентки из Москвы. Мошенники для обмана россиян стали подделывать голоса родных и знакомых потенциальной жертвы, сообщили РИА Новости в пресс-службе регулятора.
ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
Могут ли мошенники подделать голос и украсть деньги со счета? | Эксперты объясняют от Роскачества | Мошенники начали подделывать голоса: выяснили, смогут ли они оформить кредит в банке. |
ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы - Российская газета | Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. |
В Роскачестве дали советы, как защитить свои биометрические данные от мошенников
Чтобы мошенники не подделали ваш голос и не позвонили кому-то от вашего имени, не разговаривайте с незнакомыми людьми по телефону и не называйте слова "да" и "нет". Чтобы мошенники не подделали ваш голос и не позвонили кому-то от вашего имени, не разговаривайте с незнакомыми людьми по телефону и не называйте слова "да" и "нет". В статье рассказывается о том, как мошенники используют технологию подделки голоса для обмана людей и получения доступа к их биометрическим данным. Обычно мошенники надевают на себя маску родственника жертвы и меняют голос, а потом рассказывают душераздирающую историю о том, как они попали в беду и что им срочно нужны деньги. Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах. В Электрогорске задержали мужчину, который при помощи голоса умудрился обогатиться более чем на четверть миллиона рублей.
Подделали голос внучки. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч
злоумышленники подделывают голос с помощью технологии дипфейка и одновременно подменяют номер. Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника. Мошенники подделали голос директора компании с помощью искусственного интеллекта и украли 243 тысячи долларов. Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека (родственника или коллеги).
Центробанк: мошенники стали чаще имитировать голоса родных и знакомых россиян
Для подделки голосов мошенники используют нейросеть, отметил Андрей Ефимов Фото: Александр Елизаров © Мошенники подделали голос родственника жертвы, который из-за этого лишился 100 тысяч рублей. Голоса других людей злоумышленники имитируют при помощи специальных программ — этой уловкой они вынуждают потерпевших сообщать различные сведения или совершать денежные переводы. В Атырау полицейские задержали мошенника, который с легкостью подделывал свой голос, сообщает Главная» Общество» Волгоградцев предупредили о мошенниках, которые подделывают голоса. Мошенники всё активнее используют нейросети, чтобы подделывать голоса или лица знакомых доверчивых граждан и своровать их кровные.
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
О том, что такая схема набирает популярность, говорится в исследовании компании по кибербезопасности Angara Security есть в распоряжении «Ведомостей». По словам представителя Angara Security, большая часть таких объявлений размещена в Telegram, но используются и другие ресурсы, например Habr или спам-звонки с предложением заработать на «большом проекте». Согласно исследованию, количество таких сообщений без учета спам-звонков в 2021 г. Авторы таких объявлений просят предоставить аудиозапись в формате телефонного звонка или записи разговора, которую необходимо отправить личным сообщением или боту. За участие в проекте предлагают гонорар от 300 до 5000 руб. Для этого изначально нужен реальный голос человека, чтобы придать достоверность аудиосообщениям. Созданные таким образом голосовые сообщения могут адресоваться родственникам, коллегам по работе, которых часто легко определить по данным в открытом доступе, а также банковским сервисам и другим интересующим мошенников целям», — пояснил представитель Angara Security. Но оценить возможный ущерб от мошенничества именно с использованием дипфейков пока довольно трудно, так как случаев, которые удалось бы отследить или предотвратить, еще немного.
Все это затем используется для самых разнообразных схем обмана. К примеру, мошенники могут связаться с близкими или коллегами человека, чей голос они скопировали, и вполне правдоподобно ввести их в заблуждение просьбой о помощи или призывом перевести средства на какой-либо банковский счет. Сегодня существуют технологии, позволяющие распознать подделку голоса, однако угроза все же существует.
Договоритесь с семьей и друзьями, что в случае экстремальной ситуации вы всегда будете использовать кодовое слово. Это позволит моментально раскрыть любую телефонную аферу с поддельным голосом. Сбросить и перезвонить. Это хороший способ проверить, что вам действительно звонит близкий человек, даже если звонок поступил якобы с его номера. Главное правило — перезванивать нужно не на поступивший номер, а на номер из своей телефонной книжки или на мессенджер близкого человека. Почему еще нужно быть начеку О телефонных мошенниках сейчас говорят очень много, и это хорошо. Многие уже выработали иммунитет к подобным звонкам и понимают, как действовать в такой ситуации. Но это не останавливает аферистов, и теперь некоторые из них предварительно изучают жертву, перед тем как совершить звонок. Изучают соцсети, анализируют круг друзей и родственников, выясняют финансовое положение, чтобы понять, на какую сумму можно развести «клиента» и дадут ли ему кредит. Дальше под конкретного человека составляют индивидуальный сценарий развода. Популярность набирают виды финансового мошенничества через мессенджеры — когда жертве отправляют аудиосообщения с просьбой отправить деньги.
В то же время рискуют и родственники публичных людей, поскольку образцы голосов звезд легче найти в открытом доступе, — поясняет Александр Самсонов. Например, у родителей действительно может быть непутевый сын, который попадает в плохие истории. За счет стресса и доверчивости различить тонкости в голосе непросто, — поясняет специалист. За борьбу с подделками решили взяться на государственном уровне Как отмечает Александров, сегодня круг потенциально успешных атак мошенников расширяется за счет того, что голос, имитированный ИИ, действительно стал похож на оригинал, и в зоне риска находятся люди, которые знают о подобных мошеннических атаках, но не в курсе применения современных технологий в сфере копирования голоса. Как не стать жертвой мошенника Для того чтобы создать голосовой дипфейк, имитирующий речь конкретного человека, злоумышленникам нужны образцы его голоса. Как говорит главный эксперт «Лаборатории Касперского» Сергей Голованов, при наличии нескольких образцов голоса мошенники могут с помощью нейросети создать аудиозапись с необходимым им содержанием. Однако в режиме реального времени создавать подобную запись не получится, — рассказывает эксперт. Образцы голоса потенциальной жертвы для создания дипфейков злоумышленники могут добывать разными путями. Как отмечает Александр Самсонов, мошенникам помогают публичные аудио- и видеозаписи в соцсетях, а также утечки биометрических данных. Кроме того, они могут просто позвонить человеку по телефону и записать его голос на диктофон. Поэтому, чтобы защититься от них, очень важно беречь личную голосовую информацию.
Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта
По словам сотрудников ведомства, злоумышленники находят в соцсетях образцы голосов родных и знакомых потенциальной жертвы, а затем создают голосовые дипфейки. В ведомстве также посоветовали не переводить деньги пользователям из интернета. При возникновении сомнений лучше связаться с человеком, от имени которого ведется разговор.
Как распознать дипфейк: Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций. Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта. Звук опережает картинку или не успевает за движениями персонажа. Распознавать подделки помогают и сами нейросети. Технологии создания и обнаружения дипфейков будут усиленно развиваться в будущем. По словам Кузьменко, для обычного пользователя лучший способ защититься от дипфейков — быть бдительным, обращаться к надежным источникам информации и следить за развитием информационных технологий.
Полиция отмечает, что это первый случай, когда жертву обманули при помощи группового дипфейка, а не в ходе общения один на один. Целью мошенников стал сотрудник финансового отдела филиала, который получил, по всей видимости, фишинговое сообщение. В середине января ему поступило требование якобы от финансового директора компании в Великобритании, заявившего, что необходимо провести секретную транзакцию. Сотрудник испытывал сомнения до того момента, пока его не пригласили на групповой созвон. Там он увидел и якобы финансового директора компании, и других сотрудников. После этого он сделал запрос в штаб-квартиру компании и понял, что был обманут.
Как объяснила другой эксперт НТИ, директор по развитию и цифровой трансформации компании EKF Татьяна Мосендз, в создании голосовых сообщений для обмана используются нейросети - с их помощью можно генерировать нужные фрагменты, используя соответствующий датасет с образцами голоса. По ее словам, на данный момент единственный средством борьбы против нейросетей в этом случае должен стать человеческий ум. Нужно улавливать речевые обороты своих близких, оценивать саму ситуацию и повод, сопоставлять факты. Чтобы первыми узнавать о главных событиях в Ленинградской области - подписывайтесь на канал 47news в Telegram Увидели опечатку?