Мошенники вышли на новый уровень: они подделывают не только номера телефонов,но даже голоса звонящих! Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы. «Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка. Чтобы мошенники не подделали ваш голос и не позвонили кому-то от вашего имени, не разговаривайте с незнакомыми людьми по телефону и не называйте слова "да" и "нет".
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись
Новости Технологии 29 июля 2022. Телефонные мошенники начали подделывать голос «Алисы». Как сообщили специалисты Центра цифровой экспертизы Роскачества, мошенники научились имитировать голос человека с помощью нейросети. Подделывать голоса мошенники могли задолго до появления нейросети.
Эксперт по кибербезопасности Ефимов предупредил о возможности создать фейковую аудиозапись
Если мошенники подошли к вопросу серьезно, то идентифицировать их можно будет только по нехарактерному для ваших родственников поведению. Номер можно подменить - на смартфоне он будет определяться как знакомый. Также мошенники могут создать похожий аккаунт мессенджера", - сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. Кража голосов Программы, с помощью которых можно синтезировать голос выбранного человека, уже широко распространены, предупредил эксперт. При этом все большую роль в этой сфере начинают играть нейросети - в ближайшее время с их помощью можно будет подделать внешность человека, что снизит доверие пользователей к видеозвонкам, считает он.
И воспользоваться уже в своих целях. Также у мошенников есть и другое оружие: полная информация о потенциальной жертве. Как отпечатки на песке, человек всюду оставляет свои цифровые следы. Из разных источников можно узнать, с кем вы живете, дружите, общаетесь. И самое страшное: скорее всего, вы уже наследили достаточно.
И этот след уже никак не стереть. Интернет помнит все.
Это может быть видео или даже просто аудио Бакли Им требуется очень мало обучающих данных, и они могут создать нечто достаточно убедительное с помощью обычного ноутбука, который может купить каждый По сути, дипфейки берут примеры видео- или аудиозаписей, и учатся точно воссоздавать их движения или голос. Это может быть использовано для того, чтобы поместить лицо на тело другого человека, заставить его голос читать определенный текст или же совершать вредоносные действия.
Несмотря на то, что технология кажется сложной, на самом деле сделать дипфейк самостоятельно на удивление просто. Для этого достаточно иметь в открытом доступе видеозапись или запись голоса и недорогое программное обеспечение. Это занимает секунды, а не минуты или часы, и любой, у кого есть немного времени и доступ к YouTube, может понять, как это сделать", - объясняет Бакли. Появились удивительные технологии, которые еще недавно были бы научной фантастикой.
Это прекрасно для инноваций, но есть и обратная сторона, когда эта технология попадает не в те руки". Мир мошенничества с дипфейками С момента своего появления deepfake использовались во вредоносных целях, начиная от подделки политических речей и заканчивая изготовлением порнографических материалов. Однако в последнее время их использование находит все большее применение в мире мошенничества. В последнее время участились случаи мошенничества с использованием искусственного интеллекта, когда человеку звонит или даже звонит по видеосвязи его близкий человек, говоря, что он попал в беду и ему нужны деньги", - рассказывает Бакли.
Сведения о человеке берутся из данных, доступных в Интернете. Вместо этого мошенники полагаются на страх и безвыходную ситуацию, когда вы впадаете в панику и не замечаете несоответствий Хотя эти мошеннические действия могут иметь различные формы, обычным форматом является звонок со случайного номера.
Кроме того, важно устанавливать и пользоваться только теми программами, которые размещены на официальных сайтах производителя. Если же профиль все же взломали, то стоит связаться техподдержкой социальной сети. В случае мошеннических действий нужно обратиться в правоохранительные органы. Родителям же, чьи дети активно пользуются соцсетями и мессенджерами, рекомендуется владеть актуальной информацией о круге общения ребенка.
Это необходимо, чтобы обезопасить детей от нежелательных контактов и предостеречь от передачи данных злоумышленникам.
Как мошенники записывают голоса других людей?
- Мошенник обманывал людей, подделывая голоса близких по телефону
- Метод Терминатора
- ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы - Российская газета
- Главные новости
Греф рассказал о мошенниках, подделывающих голос и изображение клиентов банков
- Накатанные схемы уже не в моде, но работают
- Мошенники подделывают голоса и крадут деньги
- Каждый четвертый похищенный мошенниками рубль оказался заемным
- Мошенники придумали новую схему развода с подменой голоса. Будьте бдительны
- ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян — Большой город
- ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
Накатанные схемы уже не в моде, но работают
- Как работает новая схема мошенничества с подделкой голоса
- "Аудиодвойник" бизнесмена из Москвы обманом заполучил кассу его фитнес-клуба, пока он отдыхал
- Как работает новая схема мошенничества с подделкой голоса
- Телефонные мошенники стали подделывать номера и голоса родственников
Мошенники придумали новую схему развода с подменой голоса. Будьте бдительны
Злоумышленники почему и усложняют свои атаки, делают звонки не с одного номера, а с двух, трех, четырех, там ФСБ как будто звонит, кто-то еще как будто звонит. Почему они, к примеру, начали теперь просить деньги не переводить или сообщать код из СМС-сообщения, а просят деньги снимать и передавать их человеку? Все потому, что все меньше людей ведутся на их разводки. И поэтому, конечно же, они вынуждены придумывать и ухищряться, делать более сложные схемы, которые не так просто распознать с первого взгляда. То есть, с одной стороны, нам кажется, что люди как будто бы не поведутся, но на самом деле, из-за того что схема сложнее и новая, люди теряются, и такая схема окажется более эффективной, нежели стандартная по звонкам. Если вам никогда по WhatsApp не звонил номер 900, который говорил, что он Сбербанк, то, скорее всего, это не Сбербанк. Если вам кажется, что что-то странно, вам позвонили через WhatsApp и начинают вас нагружать тем, что все очень плохо, деньги сейчас украдут, надо что-то делать, остановите просто разговор, скажите, я вам перезвоню, повесьте трубку и позвоните по номеру телефона сами уже в Сбербанк».
Несмотря на то, что не все пользователи смартфонов знают, как включать трансляцию экрана, мошенников это не останавливает. Эксперты говорят, что по подготовленным заранее скриптам они объясняют жертве, куда заходить и что нажимать.
Для того чтобы научить нейросеть говорить вашим голосом, ей достаточно 20-секундного фрагмента разговора для создания копии. Однако беспокоиться, что банковская биометрия может тоже оказаться в руках мошенников, не стоит. Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков, которые восстановить практически невозможно. Если вам кто-то звонит с неизвестного номера и говорит голосом вашего родственника или хорошего знакомого, то эксперты советуют соблюдать основное правило — не предпринимать необдуманных действий. Для начала свяжитесь со своими родственниками или знакомыми, чтобы проверить информацию о предполагаемой тревожной просьбе, — говорит «Российской газете» Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества.
Аферы становятся все сложнее и убедительнее. Благодаря бурно развивающемуся искусственному интеллекту ИИ мошенники теперь способны воспроизвести голос знакомого человека, а в некоторых случаях даже его лицо. Эта технология доступна не только для самых одержимых, но и для всех, у кого есть приличный компьютер и подключение к Интернету. Телефонные мошенники с искусственным интеллектом играют на психологии доверия и страха, заставляя людей отдавать деньги, делая вид, что они знают человека, сидящего на другом конце провода. Как же работает эта технология и можно ли как-то лучше подготовиться к встрече с мошенниками будущего? Мы побеседовали с Оли Бакли, профессором кафедры кибербезопасности Университета Восточной Англии, чтобы узнать больше об этих новых мошенничествах. Что такое deepfake? Хотя мошенничества продолжают существовать в самых разных формах, эти новейшие разработки, как правило, опираются на технологию, известную как дипфейк. Используя алгоритм искусственного интеллекта, они создают контент, который выглядит или звучит реалистично. Это может быть видео или даже просто аудио Бакли Им требуется очень мало обучающих данных, и они могут создать нечто достаточно убедительное с помощью обычного ноутбука, который может купить каждый По сути, дипфейки берут примеры видео- или аудиозаписей, и учатся точно воссоздавать их движения или голос. Это может быть использовано для того, чтобы поместить лицо на тело другого человека, заставить его голос читать определенный текст или же совершать вредоносные действия. Несмотря на то, что технология кажется сложной, на самом деле сделать дипфейк самостоятельно на удивление просто.
Но есть общее правило: не разговаривать с мошенниками. Это небезопасно. Задача злоумышленника - как можно дольше держать с вами контакт и за это время нащупать, на что вы реагируете как жертва, и использовать. Так что даже если бы не было дипфейков, разговор с мошенниками - очень плохая идея. Нужно как можно быстрее сбрасывать звонок и блокировать номер", - посоветовал он.
Мошенник обманывал людей, подделывая голоса близких по телефону
Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч.
Мошенники начали использовать поддельные голоса родственников жертв
Голоса других людей злоумышленники имитируют при помощи специальных программ — этой уловкой они вынуждают потерпевших сообщать различные сведения или совершать денежные переводы. Подробности о том, как мошенники используют голосовые дипфейки и как защититься от такого обмана, читайте в материале «Известий». Новый прием мошенников: синтез голоса Как рассказали в Центробанке РФ, мошенники стали имитировать голоса знакомых, родных или коллег россиян при помощи специальных программ. Злоумышленники звонят потенциальным жертвам под видом близких, чтобы выудить необходимые сведения или заставить человека перевести деньги. По данным регулятора, сегодня злоумышленники активно используют комбинированные схемы мошенничества, главным образом телефонного. При этом всё чаще создаются так называемые адресные схемы, составленные по цифровому портрету человека.
Как пояснили в Центробанке РФ, мошенники могут собрать его на основании тех данных, которые сам пользователь разместил в Сети, используя информацию о родственниках и друзьях, работе или досуге. Никогда не пересылайте в мессенджерах и социальных сетях сведения из документов, не вводите свои данные на сомнительных сайтах. Не нужно совершать какие-либо денежные операции по просьбе позвонившего незнакомца», — отметили представители регулятора. В случае любых сомнений в Центробанке РФ рекомендуют связаться с человеком, от имени которого вам позвонили, и уточнить у него всю информацию. Фабрика дипфейков: как подделывают голоса Как рассказал «Известиям» ведущий эксперт отдела разработки и тестирования компании «Код безопасности» Александр Самсонов, подделывать голос можно с помощью большого количества сервисов и программ, которые способны генерировать голос человека по записанному образцу.
Также у мошенников есть и другое оружие: полная информация о потенциальной жертве. Как отпечатки на песке, человек всюду оставляет свои цифровые следы. Из разных источников можно узнать, с кем вы живете, дружите, общаетесь. И самое страшное: скорее всего, вы уже наследили достаточно. И этот след уже никак не стереть. Интернет помнит все. Но есть способы бороться с мошенниками.
Почему еще нужно быть начеку О телефонных мошенниках сейчас говорят очень много, и это хорошо. Многие уже выработали иммунитет к подобным звонкам и понимают, как действовать в такой ситуации. Но это не останавливает аферистов, и теперь некоторые из них предварительно изучают жертву, перед тем как совершить звонок. Изучают соцсети, анализируют круг друзей и родственников, выясняют финансовое положение, чтобы понять, на какую сумму можно развести «клиента» и дадут ли ему кредит. Дальше под конкретного человека составляют индивидуальный сценарий развода. Популярность набирают виды финансового мошенничества через мессенджеры — когда жертве отправляют аудиосообщения с просьбой отправить деньги. Причем такие сообщения могут приходить даже с реальных аккаунтов, если преступникам удается их взломать. Подводим итог Телефонные аферисты держат руку на пульсе новых технологий и активно переходят к использованию программ клонирования голоса. Поэтому, если вам поступает звонок от якобы близкого человека, который признается, что попал в беду и ему срочно нужны деньги, проявляйте бдительность!
Используйте проверочные вопросы и контрольные слова, следите за интонацией и манерой речи. Не стесняйтесь положить трубку и перезвонить человеку на личный номер.
Так что даже если бы не было дипфейков, разговор с мошенниками - очень плохая идея. Нужно как можно быстрее сбрасывать звонок и блокировать номер", - посоветовал он. Представитель НТИ также указал на то, что недобросовестные сотрудники компаний, ведущих запись разговоров с клиентами, могут продавать мошенникам эти данные. Но здесь надо понимать, что для успешного использования такой записи надо иметь номера тех людей, которые могут среагировать на этот голос, поэтому пока с такими утечками проблем немного", - заключил Пермяков.
Голос в трубке заставил московского врача перевести мошенникам 3 млн рублей
В январе стало известно , что вымогатели используют нейросети для подделки войсов в мессенджере Telegram. Преступники получают доступ к аккаунту, затем имитируют голос и начинают отправлять аудио с просьбами о переводе денег.
При использовании базовых технологий такие подделки вряд ли будут идеальными, вместо этого предлагается версия голоса, которая может быть немного искажена. Однако, полагаясь на стрессовую ситуацию, мошенники надеются, что люди не заметят этого или сочтут, что звонящий находится в состоянии стресса. Как бороться с дипфейками По мере того как эти мошенничества становятся все более распространенными, возникает вопрос как о том, как лучше с ними бороться, так и о том, могут ли люди сделать что-то, чтобы меньше подвергаться их воздействию.
Легко быть критичным, когда это происходит не с вами, но в реальной ситуации это трудно. Когда происходит странная ситуация, задайтесь вопросом, похоже ли это на вашего знакомого, могут ли они сами так говорить, или ситуация, которую они описывают, кажется вам маловероятной Существуют программы, с помощью которых можно распознать фальшивку, но у обычного человека вряд ли есть такая программа под рукой. Если вам позвонил близкий человек, которого вы не ждали, и у вас возникли подозрения, перезвоните ему или напишите сообщение, чтобы узнать, где он находится. Оцените реальность и действуйте дальше". Хотя можно попытаться удалить весь контент в Интернете, это очень сложная задача, требующая тщательной проверки как ваших социальных сетей, так и друзей и родственников.
Кроме того, может быть больше контента с вашей работы или из социальных групп, где есть пригодные для использования кадры и аудиозаписи. Лучший вариант - просто быть объективным, учитывать вероятность подделки и с опаской относиться к звонкам и видео, которые кажутся неправдоподобными". Изменение мышления За последний год возможности искусственного интеллекта значительно расширились. В результате появилось много хорошего, но и столько же плохого.
Голос звонившей был похож на голос ее внучки. Незнакомка рассказала, что стала виновницей ДТП и ей нужна помощь. Позже пенсионерке позвонил мужчина, представился следователем и заявил, что нужно заплатить крупную сумму, чтобы девушку не привлекли к уголовной ответственности. Потерпевшая сказала свой адрес проживания, и через некоторое время к ней в гости пришел подозреваемый. Пожилая женщина отдала незнакомцу 100 тыс.
Подробности напишу ниже». Технически подкованные преступники могут подделать аудиозапись с любым текстом через нейросеть — для этого достаточно найти образец голоса на 10—15 секунд. Чем больше материала удастся собрать, тем убедительнее будет подделка. Готовое голосовое — это козырь, который преступники разыгрывают по-разному. Одни отправляют его в начале переписки, чтобы сразу обескуражить жертву. Другие — по ходу разговора, когда получатель больше всего сомневается в правдоподобности происходящего. Выбор метода зависит от содержания аудиосообщения, которое удалось смонтировать мошенникам. Если они склеили из старых фрагментов фразу вроде «Привет. Одолжи денег», ее отправляют в начале диалога. В остальных случаях действуют по ситуации. Преступники пока только осваивают новый метод. В день мы пресекаем одну-две попытки подобного обмана наших клиентов. Будьте бдительны и не переводите с ходу деньги, кто бы вас об этом ни просил.
Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта
И самое страшное: скорее всего, вы уже наследили достаточно. И этот след уже никак не стереть. Интернет помнит все. Но есть способы бороться с мошенниками. Например, задавать побольше уточняющих вопросов своим якобы родственникам. Также нужно для общения с друзьями и родственниками в экстренных ситуациях придумать кодовое слово, которое будет паролем. Вот только даже договариваться об этом слове лучше лично, с глазу на глаз и не пользуясь Интернетом или телефоном.
Поэтому лучше скрывать от посторонних глаз личную и финансовую информацию. Также необходимо быть осторожными при пересылке важных сведений например, документов с помощью мессенджеров. Не сообщайте данные банковских карт и другую конфиденциальную информацию владельцам сомнительных сайтов. Не совершайте операции по переводу денежных средств, не выполняйте команды посторонних лиц, поступающие по телефону. Такие просьбы лучше проигнорировать.
Кузьменко посоветовал сразу перезвонить своим родным и знакомым, от которых и была получена просьба. Еще лучше придумать кодовое слово, для своих, чтобы можно было понять: звонят родные, а не мошенники. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные. Технология называется "дипфейк" от англ. За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями. Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников.
При этом важно использовать надежную комбинацию цифр, букв и знаков препинания. Также нужно установить везде двухфакторную аутентификацию. То есть, чтобы при входе в аккаунт на телефон или электронный адрес приходило подтверждение авторизации. Кроме того, важно устанавливать и пользоваться только теми программами, которые размещены на официальных сайтах производителя. Если же профиль все же взломали, то стоит связаться техподдержкой социальной сети.
Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
Эксперты по кибербезопасности отмечают рост использования аудиодипфейков для мошеннических звонков в мессенджерах — подделку голоса руководителя компании для авторизации перевода средств. Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы. Мошенники подделали голос родственника жертвы, который из-за этого лишился 100 тысяч рублей. Как мошенники научились подделывать голос с помощью нейросети?