IT-эксперты рассказали, как мошенники подделывают голоса россиян. С помощью специальных программ злоумышленники подделывают голоса родных, друзей или коллег.
Информационная безопасность операционных технологий
Стоит мошеннику загрузить короткий образец аудиоролика из сообщения в социальной сети или голосовой почты (всего 30 секунд), и он может использовать инструменты синтеза голоса с помощью искусственного интеллекта. Как мошенники научились подделывать голос с помощью нейросети? О том, что мошенники подделывают голос «умного» помощника «Алиса» для того, чтобы обзванивать россиян и вводить их в заблуждение, сообщили в «Яндексе».
Мошенник подделал голос друга и выманил 50 000 ₽
Голоса других людей злоумышленники имитируют при помощи специальных программ — этой уловкой они вынуждают потерпевших сообщать различные сведения или совершать денежные переводы. Те, кто разбирается в технологиях мошенничества, без труда подделают не только голос, но и другие личные данные. Мошенники подделали голос родственника жертвы, который из-за этого лишился 100 тысяч рублей. Телефонные мошенники научились подделывать голоса, ЦБ РФ предупредил о новых видах мошенничества с нейросетями в Волгограде. Кроме того, мошенники могут менять голос, имитируя близких людей. Мошенник подделал голос друга и выманил 50 000 ₽.
Мошенник подделал голос друга и выманил 50 000 ₽
При наличии подтверждений в комментариях, пост может быть вынесен в общую ленту. В зависимости от степени нарушения может последовать: А. Вынос поста в общую ленту п. Удаление поста п. Занесение пользователя в игнор-лист сообщества п.
Авторы таких объявлений просят предоставить аудиозапись в формате телефонного звонка или записи разговора, которую необходимо отправить личным сообщением или боту. За участие в проекте предлагают гонорар от 300 до 5000 руб. Для этого изначально нужен реальный голос человека, чтобы придать достоверность аудиосообщениям. Созданные таким образом голосовые сообщения могут адресоваться родственникам, коллегам по работе, которых часто легко определить по данным в открытом доступе, а также банковским сервисам и другим интересующим мошенников целям», — пояснил представитель Angara Security. Но оценить возможный ущерб от мошенничества именно с использованием дипфейков пока довольно трудно, так как случаев, которые удалось бы отследить или предотвратить, еще немного.
Общий объем похищенных средств у граждан в 2023 г. По данным ЦБ, в 2022 г. Руководитель сервиса аналитики и оценки цифровых угроз ETHIC ГК Softline Константин Мельников подтвердил, что в компании наблюдают тенденцию к увеличению использования поддельных аудио- и видеосообщений, отправляемых жертвам через мессенджеры, соцсети и комьюнити-платформы.
Она сообщила полиции, что ей позвонила неизвестная, представилась её внучкой, рассказала, что попала в ДТП, и умоляла помочь деньгами. Для урегулирования ситуации она просила передать курьеру 200 тыс. Сообщника мошенников задержали с поличным возле квартиры пенсионерки, при передаче денег. Курьер оказался 23-летним уроженцем одной из стран ближнего зарубежья.
В конце декабря полицейские Северной столицы обезвредили организованную группу телефонных мошенников.
Её могут записать где угодно. Если вас хотят взломать, это сделают. Другой вопрос — как вы защищаете себя», — обращает внимание Эльдар Муртазин. Фото: Unsplash. Технологии искусственного интеллекта в скором времени позволят совмещать звук и изображение. Выглядеть это будет как видеозвонок от знакомого человека.
Вы можете, к примеру, увидеть видео человека, который может делать всё, что угодно. Мошенники получают гибкий инструмент для манипуляции», — предупреждает эксперт. Эльдар Муртазин считает, что необходимо как можно скорее принять меры по регулированию сферы искусственного интеллекта.
Мошенники массово воруют голоса россиян. Как не стать их жертвой?
Мошенники вышли на новый уровень: они подделывают не только номера телефонов,но даже голоса звонящих! В Электрогорске задержали мужчину, который при помощи голоса умудрился обогатиться более чем на четверть миллиона рублей. Мошенники стали подделывать голоса родных и знакомых для обмана россиян. Об этом пишет РИА «Новости» со ссылкой на пресс-службу Центробанка. Мошенники научились клонировать голоса детей и играя на родительских чувствах вымогают у них крупные суммы.
Мошенники начали подделывать голоса: Луки.ру выяснили, смогут ли они оформить кредит в банке
Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника. Мошенники подделали голос директора компании с помощью искусственного интеллекта и украли 243 тысячи долларов. Телефонные мошенники в России все чаще подделывают голоса родственников и знакомых своих жертв. Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. Мошенник подделал голос друга и выманил 50 000 ₽. О том, что мошенники подделывают голос «умного» помощника «Алиса» для того, чтобы обзванивать россиян и вводить их в заблуждение, сообщили в «Яндексе». Уже известны случаи, когда подделывали голос человека и даже внешность.
ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
Технологии искусственного интеллекта в скором времени позволят совмещать звук и изображение. Выглядеть это будет как видеозвонок от знакомого человека. Вы можете, к примеру, увидеть видео человека, который может делать всё, что угодно. Мошенники получают гибкий инструмент для манипуляции», — предупреждает эксперт. Эльдар Муртазин считает, что необходимо как можно скорее принять меры по регулированию сферы искусственного интеллекта. В Китае, например, если создаётся искуственный персонаж, например ведущий ток-шоу, должно быть указано, что это не реальный человек, а картинка, синтезируемая программой. Подобное нужно делать и в России, поскольку люди начинают верить, что несуществующие персонажи являются обычными людьми», — уверен эксперт. В 2023 году мошенники похитили у граждан 19 млрд рублей.
Люди не только отдают злоумышленникам свои кровные, но и берут для них деньги в долг.
Ей сообщили, что директор в отпуске, более того, у них не принято так отправлять деньги. На кибермошенников, подделавших голос Колмыкова через нейросети, подали заявление в полицию. Проводится проверка.
Подобные файлы злоумышленники создают и с известными личностями, где те рекламируют сомнительные сайты и услуги. Как отмечают юристы, бороться с распространением дипфейков непросто. Наши корреспонденты освещают все важные события города.
Могут ли мошенники позвонить в банк и украсть деньги? С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка.
К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно.
В Роскачестве дали советы, как защитить свои биометрические данные от мошенников
Такая запись голоса может требоваться мошенникам, поскольку качество записи телефонного разговора недостаточно для обучения нейросетей, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий. Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта могут имитировать голос позвонившего вам знакомого или родственника. Мошенники начали чаще подделывать голоса родных и знакомых тех, кому они звонят, сообщили в Центробанке. Теперь мошенники способны с помощью искусственного интеллекта сымитировать голос знакомого или родственника потенциальной жертвы. С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет.