Новости мошенники подделывают голос

Мошенники ради обмана россиян подделывают голоса родных и близких потенциальных жертв — об этом рассказали в Центробанке РФ. Мошенники начали чаще подделывать голоса родных и знакомых тех, кому они звонят, сообщили в Центробанке. Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы.

Мошенники подделывают голоса и крадут деньги

О том, что мошенники подделывают голос «умного» помощника «Алиса» для того, чтобы обзванивать россиян и вводить их в заблуждение, сообщили в «Яндексе». «Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса. Мошенники используют записи телефонных звонков, в том числе разговоров с роботами, для подделки голоса в мошеннических целях. Телефонные мошенники начали осваивать новые технологии, теперь они взяли на вооружение нейросети, которые способны подделывать чужой голос. По словам Шамиля Магомедова, заведующего кафедрой “Интеллектуальные системы информационной безопасности” Института кибербезопасности и цифровых технологий РТУ МИРЭА, телефонные мошенники действительно научились подделывать голоса людей.

Следующий звонок от вашей семьи может оказаться мошенничеством с подменой голоса дипфейком

Кроме того, мошенники могут менять голос, имитируя близких людей. О том, что мошенники подделывают голос «умного» помощника «Алиса» для того, чтобы обзванивать россиян и вводить их в заблуждение, сообщили в «Яндексе». Мошенники научились клонировать голоса детей и играя на родительских чувствах вымогают у них крупные суммы. Чтобы мошенники не подделали ваш голос и не позвонили кому-то от вашего имени, не разговаривайте с незнакомыми людьми по телефону и не называйте слова "да" и "нет". Благодаря бурно развивающемуся искусственному интеллекту (ИИ) мошенники теперь способны воспроизвести голос знакомого человека, а в некоторых случаях даже его лицо. Эксперты утверждают, чтобы подделать чужой голос нейросети необходим образец.

Не дайте себя обмануть! Что придумали телефонные мошенники в 2024г: нейросети, QR и маркетплейсы

Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента. Как сообщили специалисты Центра цифровой экспертизы Роскачества, мошенники научились имитировать голос человека с помощью нейросети. Для подделки голоса мошенникам будет недостаточно записанных фраз. Мошенники не подделывали ее голос, но использовали продуманную со всех сторон схему. Мошенники стали активно использовать технологию синтеза голоса для шантажа жертв и угрожают «сливом» поддельных аудиозаписей в СМИ и правоохранительные.

Полицейские показали, как мошенники подделывают свой голос

«Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса. Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника. Мошенники подделали голос директора компании с помощью искусственного интеллекта и украли 243 тысячи долларов. Мошенники начали подделывать голоса с помощью нейросети. Александра показывает переписку – от ее имени мошенники отправили знакомым десятки сообщений. Телефонные мошенники научились подделывать не только номера, но и голоса. Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы. Телефонные мошенники научились подделывать не только номера, но и голоса.

Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись

По тексту, который ей написали. Похоже, кажется, близкие и родные, конечно, заметят разницу, а вот остальные — нет. Хотя это — стопроцентный фейк. От массового применения нового типа интернет-попрошайничества пока оберегают сами технологии. На создание копии голоса нейросети сейчас нужно много времени. Ну и также стоит понимать, что конечный результат тоже не всегда идеален, приходится что-то обрабатывать", — рассказал Симонян. Подделку голоса можно отличить как раз по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться.

Но главное: голос нейросети все равно звучит немного механически. Понять это можно, только если вслушаться.

Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями. Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков от "родственников", например, пожилым людям, предупредил эксперт Роскачества. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей.

Как распознать дипфейк: Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций. Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта.

В целом, хотя развитие искусственного интеллекта может представлять новые риски для кибербезопасности, простые меры предосторожности и правовая защита могут помочь предотвратить неправомерное использование личной информации.

Мошенники могут использовать эту технологию для создания видео, в котором, например, CEO компании якобы призывает к переводу средств на определенный счет. Такая технология применяется сегодня и для создания компрометирующего материала для шантажа, — говорит он. Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека родственника или коллеги. Они просят перевести деньги таким способом или сообщить код из СМС.

Полицейские показали, как мошенники подделывают свой голос

Да, мама, насмерть", - рассказала потерпевшая. Разумеется, сыном представился один из мошенников. Затем трубку взял уже другой, якобы сотрудник полиции и потребовал деньги для решения проблемы. Попросили сразу полмиллиона. Но у женщины такой суммы не оказалось, согласились на 55-ть. При этом позвонить сыну самостоятельно ошарашенная мать не могла: преступники просили ее все время держать телефон в режиме разговора.

За участие предлагают гонорар от 300 до 5000 рублей, при этом в некоторых случаях его действительно выплачивают жертве. Между тем «Сбер» предупредил о новой схеме мошенничества, которая осуществляется при помощи трансляции экрана смартфона. Она выглядит так: мошенники звонят в мессенджер с фейкового аккаунта с номером 900 и логотипом банка и спрашивают, обновлял ли пользователь приложение банка. Затем человеку звонит второй злоумышленник, якобы для идентификации личности клиента по биометрии.

Он просит включить режим демонстрации экрана и зайти в мобильное приложение банка. Трансляция экрана позволяет мошенникам увидеть номера карт, суммы на счетах, коды в смс от банка и другую информацию. Данный способ мошенничества появился около двух месяцев назад, рассказывает эксперт по информационной безопасности, генеральный директор Phishman Алексей Горелкин. Алексей Горелкин эксперт по информационной безопасности, гендиректор Phishman «Такой способ был, он применялся на школьниках: покажите, а что у вас за карта, а у ваших родителей какие карты, зайдите к себе в телефон, в общем, была такая схема, чтобы люди, которые не шибко разбираются в цифровых технологиях, но при этом имеют доступ к устройству родителей, могли предоставить злоумышленникам необходимую информацию. Я надеюсь, что такая схема все-таки не самая рабочая, потому что людей должны настораживать такие действия, которые ранее от них не просил ни банк, ни кто-либо еще. Благодаря в том числе просветительской деятельности, все меньше и меньше получается успешных атак.

Попросили сразу полмиллиона. Но у женщины такой суммы не оказалось, согласились на 55-ть.

При этом позвонить сыну самостоятельно ошарашенная мать не могла: преступники просили ее все время держать телефон в режиме разговора. Оказалось, что все это время за ней велась слежка. Взяв деньги, злоумышленник испарился, и только потом женщина, придя домой и дозвонившись до сына, выяснила, что все это был большим спектаклем, который разыграли мошенники. Ни в какое ДТП ее сын не попадал.

Операторы его банка зафиксировали обращение, но отказались отменять транзакцию. Формально он перевел деньги добровольно, поэтому доказать мошенничество сложно. Ему посоветовали обратиться за помощью в банк-получатель, а также написать заявление в полицию. Банк, в котором мошенник оформил счет, тоже не мог просто так списать деньги с карты клиента и отправить пострадавшему. Для этого нужен был официальный запрос из правоохранительных органов — но не факт, что и после этого банк вернул бы украденное.

Обращаться за помощью к полицейским знакомый не стал: не верит, что получится найти преступника. Однажды у его бабушки украли телефон. Она написала заявление и провела несколько вечеров в отделении, давая показания. Прошло два года — в итоге дело закрыли из-за истечения срока давности. Теперь знакомому кажется, что в его случае произойдет примерно то же самое. Позвонить другу по телефону, чтобы убедиться, действительно ли ему нужна помощь. Это единственный надежный способ. Вступать в диалог и задавать проверочные вопросы опасно: у мошенника есть доступ ко всей переписке и он может быстро найти ответ, который вас устроит.

Центробанк: мошенники стали чаще имитировать голоса родных и знакомых россиян

Поэтому в основном монтируют нейтральные аудио из серии «Привет. Нужна помощь. Подробности напишу ниже». Технически подкованные преступники могут подделать аудиозапись с любым текстом через нейросеть — для этого достаточно найти образец голоса на 10—15 секунд. Чем больше материала удастся собрать, тем убедительнее будет подделка. Готовое голосовое — это козырь, который преступники разыгрывают по-разному.

Одни отправляют его в начале переписки, чтобы сразу обескуражить жертву. Другие — по ходу разговора, когда получатель больше всего сомневается в правдоподобности происходящего. Выбор метода зависит от содержания аудиосообщения, которое удалось смонтировать мошенникам. Если они склеили из старых фрагментов фразу вроде «Привет. Одолжи денег», ее отправляют в начале диалога.

В остальных случаях действуют по ситуации. Преступники пока только осваивают новый метод.

Эксперты отмечают еще один источник данных для мошенников — это видеоконтент из соцсетей, который находится в свободном доступе, отмечают авторы исследования. Кроме того, с начала 2024 г. Увеличение популярности мошеннических схем с применением техники социальной инженерии и дипфейков отмечают и исследователи компании F. По словам ведущего аналитика департамента Digital Risk Protection F. Евгения Егорова, в одном мошенническом сценарии злоумышленники заставляли детей отдавать курьерам сбережения семьи, используя смоделированный голос родственника. Среди других распространенных способов мошенничества с использованием дипфейков и социальной инженерии Мельников назвал обход систем безопасности в сервисах с голосовой идентификацией, а также создание видеоконтента с использованием лиц и голосов знаменитостей. Последний способ, к примеру, используют для «продвижения» несуществующих инвестиционных проектов, добавляет старший исследователь данных «Лаборатории Касперского» Дмитрий Аникин. Сами данные для подделки голоса собираются в процессе обычного телефонного разговора злоумышленника с жертвой, поясняет он.

При этом аферистам достаточно получить небольшой фрагмент речи человека, чтобы воссоздать не только тембр, но и интонации и манеру разговора. Все это затем используется для самых разнообразных схем обмана. К примеру, мошенники могут связаться с близкими или коллегами человека, чей голос они скопировали, и вполне правдоподобно ввести их в заблуждение просьбой о помощи или призывом перевести средства на какой-либо банковский счет.

Стоит отметить, что лицо чиновника отлично вписывается в образы персонажей, а сами видео выполнены далеко не в худшем качестве. Свое мнение по поводу сгенерированного видео с использованием лица главы города высказал анонимный источник из мэрии Волгограда. То, что сделано с лицом Владимира Марченко, можно отнести скорее ко второму направлению, — говорит сотрудник администрации города.

И если рассматривать это как элемент искусства, то для выбора кандидатуры в этих целях необходимо для фактора: узнаваемость героя, чье лицо применяется в дипфейке, и достаточное количество разных изображений для того, чтобы искусственный интеллект смог с ними работать. Собеседник редакции уверен, что выбор Владимира Марченко для создания таких видео, объясняется его узнаваемостью и популярностью среди жителей Волгограда и пользователей соцсетей. Однако отдельные волгоградцы в комментариях под публикацией этих дипфейков неоднократно писали о том, что не знают человека, чье лицо использовано в видео. И получая ответ на вопрос о герое дипфейка, искренне радовались, ведь наконец узнали, как выглядит глава Волгограда. И ни горожанам, ни представителям властей не стоит беспокоиться, когда подобный контент несет лишь положительный характер. Героем подобного дипфейка развлекательного формата стал и бывший глава Тракторозаводского района, политолог, историк и знаменитый полемист Михаил Серенко.

На опубликованных в телеграм-канале правозащитника и активиста Алексея Ульянова видео политолог якобы поет известные хиты. Лицо этой публикации — Михаил Серенко — рассказал, почему не воспринимает такие посты в негативном ключе и почему в стране до сих пор распространено мошенничество. Источник: Алексей Ульянов — Если это делается друзьями, а автор видео — мой друг Алексей Ульянов, здесь скрывать нечего, то я только положительно отношусь. Это дружеский прикол. Как отличить умного человека от глупого: у первого развита самоирония, обижаются дураки, — поделился Михаил Серенко. И я придерживаюсь той точки зрения, что если какой-то вид преступления не могут пресечь, то нужно искать погоны, стоящие за этим видом преступления.

Если бы силовики захотели, то давно бы прекратились все эти разводы бабушек, использования искусственного интеллекта, но, видимо, пока не хотят приложить достаточно усилий, чтобы это пресечь. По мнению волгоградского полемиста, чтобы минимизировать количество подобных преступлений, необходимо ужесточить меры уголовного наказания. Потому что срок маленький дают, а вы дайте пожизненный срок за утечку базы данных, они перестанут. Здесь вопрос не в искусственном интеллекте, от него мы никуда не денемся, со временем, в какой-то степени он всех заменит, — рассуждает Михаил Серенко. Даже без этих дипфейковых видео мошенники совершают такие виды преступлений, что волосы на голове дыбом встают. Например, взять какой-то кредит, это сложно, но мошенники с легкостью их оформляют.

Любое благое начинание мошенники будут использовать против людей, то же самое и с нейросетями. Как защитить себя от дипфейков?

Мошенники научились подделывать ваш голос: стоит ли опасаться

Женщина сделала, то что ее просил родственник, а через некоторое время связалась с ним. После чего она узнала о том, что телеграм-канал родственника был взломан. Женщина обратилась в полицию, правоохранительные органы начали проверку. Поскольку вы здесь...

При этом подтверждение голоса является лишь одним из факторов аутентификации, а это значит, что использование банками биометрических методов идентификации может не представлять существенной угрозы для персональных данных. Организации, разрабатывающие технологии идентификации, уделяют максимум внимания безопасности данных клиентов, а алгоритмы учитывают целый ряд факторов, включая данные об устройстве и местоположении, чтобы обеспечить доступ к конфиденциальной информации только проверенным пользователям.

По словам сотрудников ведомства, злоумышленники находят в соцсетях образцы голосов родных и знакомых потенциальной жертвы, а затем создают голосовые дипфейки. В ведомстве также посоветовали не переводить деньги пользователям из интернета. При возникновении сомнений лучше связаться с человеком, от имени которого ведется разговор.

Для того чтобы научить нейросеть говорить вашим голосом, ей достаточно 20-секундного фрагмента разговора для создания копии. Однако беспокоиться, что банковская биометрия может тоже оказаться в руках мошенников, не стоит.

Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков, которые восстановить практически невозможно. Если вам кто-то звонит с неизвестного номера и говорит голосом вашего родственника или хорошего знакомого, то эксперты советуют соблюдать основное правило — не предпринимать необдуманных действий. Для начала свяжитесь со своими родственниками или знакомыми, чтобы проверить информацию о предполагаемой тревожной просьбе, — говорит «Российской газете» Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества.

Мошенники активно выманивают образцы голоса россиян

А если я согласен на запись своего голоса? Если человек заранее дает согласие на запись своего голоса, например, как в случае с объявлениями о платной озвучке рекламы или фильмов, очень важно составить договор. Анна Лапа отметила, что схемы с использованием голоса для хищения денег, конечно же, незаконны, но раскрыть такие преступления и найти самих мошенников крайне сложно, поэтому профилактические меры пока остаются лучшей защитой. Юрист подчеркнула, что главное — тщательно проверять контрагентов, которые просят вас записать голос, а также внимательно читать условия договора.

Анна Лапа дала читателям «Постньюс» следующие рекомендации: обязательно требуйте договор перед записью голоса, не соглашайтесь на сотрудничество «на честном слове» и не отсылайте свои голосовые безымянным пользователям соцсетей; внимательно прочитайте договор перед тем, как его подписать — может случиться, например, что человек разрешил озвучку порнофильмов своим голосом, но сам об этом не знает, так как не прочитал договор; задавайте вопросы и корректируйте договор. Если вы, например, не согласны, чтобы ваш голос использовали в соцсетях компании, то так и пишите; проверяйте вашего контрагента. Если вы записываете рекламу для условного Сбербанка, но подписываете договор со странным рекламным агентством, это не значит, что вы работаете на Сбербанк; если смутно понимаете, что договор и его условия сомнительны, лучше обратиться к юристу.

Как не стать жертвой мошенников? Татьяна Красногорская по просьбе «Постньюс» подготовила для пользователей рекомендации по информационной гигиене: не озвучивать фильмы, книги и другие произведения без договора также не забудьте проверить по всем открытым базам того, с кем заключаете договор ; не предоставлять никакие персональные данные неустановленным лицам; перепроверять информацию и перезванивать знакомым, которые просят деньги через голосовое сообщение; рассказать об этих рекомендациях своим старшим и, особенно, пожилым родственникам, которые более уязвимы. Сергей Пьянков добавил, что если у вас есть малейшее подозрение, что образец вашего голоса могли украсть мошенники, обязательно предупредите об этом всех родственников, друзей, знакомых и коллег.

Делать это нужно через альтернативные каналы связи — если вам кажется, что ваш Telegram был взломан, писать через него предупреждения бессмысленно. Разве россияне все еще переводят деньги мошенникам? Да, и несмотря на все усилия по борьбе с мошенниками, число успешных операций по незаконному получению денег только растет.

Так, за прошлый 2023 год преступники смогли провести более миллиона успешных операций и похитили у россиян 15,8 млрд рублей.

Останутся лишь вопросы к качеству такого сообщения, потому что речь конкретного человека окрашена фразами-паразитами и особым тембром. Чем больше речевой информации будет получено, тем проще будет "соорудить" правдоподобное голосовое сообщение. Как объяснила другой эксперт НТИ, директор по развитию и цифровой трансформации компании EKF Татьяна Мосендз, в создании голосовых сообщений для обмана используются нейросети - с их помощью можно генерировать нужные фрагменты, используя соответствующий датасет с образцами голоса. По ее словам, на данный момент единственный средством борьбы против нейросетей в этом случае должен стать человеческий ум.

Дженнифер ДеСтефано в это время планировала забрать свою младшую дочь Обри из танцевальной студии, где у той только что закончились занятия. В приступе ужаса и паники она бросилась внутрь, трясясь и умоляя кого-нибудь помочь. Никакого похищения не было Мать другого ребёнка набрала 911 и попыталась объяснить, что происходит. Диспетчер моментально заподозрила, что речь идёт о мошенничестве, и что в реальности никакого похищения не было. В первую очередь, потому, что поговорить с дочерью Дженнифер не позволили. О чём она и сообщила звонившей. Очень скоро это подтвердилось: после нескольких неудачных попыток дозвониться до Брианны, та перезвонила сама, недоумевая, что случилось. В действительности они вместе с отцом спокойно катались на лыжах в 110 милях от дома. По собственному признанию Дженнифер, она никогда не забудет тех минут ужаса, которые ей пришлось пережить из-за мошенников.

Сотрудник одной финансовой компании получил якобы от руководителя сообщение, в котором была просьба перевести крупную сумму со счета организации. Эта просьба смутила жертву, но чтобы развеять сомнения, мошенники пригласили его на видеоконференцию, в которой принимали участие и другие сотрудники компании. Но все они, кроме жертвы, использовали технологию подмены голоса и видео. Компания из-за этого обмана потеряла 25,6 млн долларов. Топ 3 дебетовых карт Откуда у мошенников образцы голосов и изображения людей Подменные видео и аудио мошенники получают с помощью нейросетей. Однако для их обучения требуются образцы голосов и изображения людей — чем больше, тем качественнее получится подмена. Мошенники берут всю информацию из открытых источников — в первую очередь, из соцсетей. Например, в случае с гонконгской компанией сотрудники, именами которых воспользовались мошенники, активно вели свои страницы — выкладывали видеолекции со своим участием и личные фотографии. Как распознать подмену Распознать подмену голоса или видео на современном этапе сложно, но возможно. Руководитель департамента информационной безопасности Банки. У человека, который использует подменное видео, бывают аномалии в движениях: например, неестественная мимика. Также заметны несоответствия в фоне или свете.

Похожие новости:

Оцените статью
Добавить комментарий