Теперь мошенники способны с помощью искусственного интеллекта сымитировать голос знакомого или родственника потенциальной жертвы.
Мошенники могут подделать чужой голос, чтобы украсть деньги
Есть ряд людей, кто обмениваются между собой голосовыми сообщениями, но подделать и отправителя, влиться в переписку практически нереально. Поэтому основная защита от мошенников — это просто обычная бдительность и игнорирование голосовых сообщений от отправителей, которых вы не знаете. Авторы объявлений, которые предлагают людям записать свой голос для рекламы или других проектов, обычно просят предоставить аудиозапись, которую нужно отправить личным сообщением в мессенджере. За участие предлагают гонорар от 300 до 5000 рублей, при этом в некоторых случаях его действительно выплачивают жертве.
Между тем «Сбер» предупредил о новой схеме мошенничества, которая осуществляется при помощи трансляции экрана смартфона. Она выглядит так: мошенники звонят в мессенджер с фейкового аккаунта с номером 900 и логотипом банка и спрашивают, обновлял ли пользователь приложение банка. Затем человеку звонит второй злоумышленник, якобы для идентификации личности клиента по биометрии.
Он просит включить режим демонстрации экрана и зайти в мобильное приложение банка. Трансляция экрана позволяет мошенникам увидеть номера карт, суммы на счетах, коды в смс от банка и другую информацию. Данный способ мошенничества появился около двух месяцев назад, рассказывает эксперт по информационной безопасности, генеральный директор Phishman Алексей Горелкин.
Кроме того, важно устанавливать и пользоваться только теми программами, которые размещены на официальных сайтах производителя. Если же профиль все же взломали, то стоит связаться техподдержкой социальной сети. В случае мошеннических действий нужно обратиться в правоохранительные органы. Родителям же, чьи дети активно пользуются соцсетями и мессенджерами, рекомендуется владеть актуальной информацией о круге общения ребенка. Это необходимо, чтобы обезопасить детей от нежелательных контактов и предостеречь от передачи данных злоумышленникам.
За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных. Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями. Сергей Кузьменко, руководитель направления информационной безопасности Центра цифровой экспертизы Роскачества: «Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков якобы родственников, например, пожилым людям. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей». Как распознать дипфейк Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций. Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта. Звук опережает картинку или не успевает за движениями персонажа.
Ей сообщили, что директор в отпуске, более того, у них не принято так отправлять деньги. На кибермошенников, подделавших голос Колмыкова через нейросети, подали заявление в полицию. Проводится проверка.
Компании стали чаще скрывать утечки персональных данных
- Как мошенники используют голосовые дипфейки и как защититься от такого обмана
- Эксперт рассказал, как распознать в телефонном собеседнике мошенника
- Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей
- Правила комментирования
- Клон голоса
Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта
Как мошенникам удается подделать голос. Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. Те, кто разбирается в технологиях мошенничества, без труда подделают не только голос, но и другие личные данные. Мошенники стали активно использовать технологию синтеза голоса для шантажа жертв и угрожают «сливом» поддельных аудиозаписей в СМИ и правоохранительные. С этой технологией мошенники подделывают голоса и изображения реальных людей, после чего звонят их друзьям, коллегам и подчиненным.
"Аудиодвойник" бизнесмена из Москвы обманом заполучил кассу его фитнес-клуба, пока он отдыхал
Но главное: голос нейросети звучит немного механически и безэмоционально. Спросите у звонящего какой-то факт, который должен быть известен только вам и ему. Например, про домашних животных, общих друзей или вашу последнюю с ним встречу. Стоит обратить внимание на психологические уловки: если вас торопят, пытаются запугать, дают инструкции о том, что нужно совершить какие-то операции в банкомате или сообщить коды, сразу отказывайтесь от подобного общения. Если мошенник звонит с неизвестного номера и представляется странным голосом вашего знакомого, самый надежный вариант — перезвонить самому по его личному номеру телефона. Защитите свои аккаунты в соцсетях и мессенджерах: ознакомьтесь с полезным материалом Роскачества. Внимательно подходите к размещению личной и финансовой информации в социальных сетях и других открытых ресурсах. Никогда не пересылайте в мессенджерах и социальных сетях сведения из документов. Не позволяйте мошенникам манипулировать вами и не совершайте какие-либо финансовые операции по просьбе незнакомцев.
Соблюдайте общие антифишинговые правила : не вводите данные своего аккаунта на посторонних сайтах, старайтесь минимизировать входы через социальную сеть на сторонние сайты, не устанавливайте подозрительные приложения и регулярно проверяйте свой телефон и компьютер антивирусом. Сергей Кузьменко руководитель Центра цифровой экспертизы Роскачества Схемы мошенничества остаются неизменными, однако использование современных технологий во многом развязывает руки злоумышленникам, что позволяет им старые успешные схемы подавать под новым углом. В наше время каждый, у кого есть смартфон и любая сумма денег на счету, становится потенциальной жертвой аферистов. Важно провести беседу с близкими и установить некую кодовую фразу, чтобы быть уверенным, что входящие звонки не являются мошенническими. Основное правило — не паниковать и не торопиться. Не стоит вестись на манипуляции мошенников и отправлять деньги на незнакомый счет. Для начала свяжитесь со своими родственниками или знакомыми, чтобы проверить информацию о предполагаемой тревожной просьбе.
Так, мошенники могут получать конфиденциальную информацию о человеке и применять ее в различных преступных схемах. Чаще всего преступники звонят от имени близких людей, сотрудников банка или правоохранительных органов. Как распознать злоумышленника Обычно мошенники играют на чувствах своих жертв, задействуют их страхи. Например, денежная помощь может потребоваться близкому человеку, который попал в беду или есть угроза потери средств, хранящихся на банковском счете.
Они настаивают на срочности действий, чтобы жертва не успела опомниться. Еще один признак - упоминание авторитетных структур в разговоре - полиции, ФСБ, Центробанка, Следственного комитета. Если в процессе разговора вы испытываете интенсивные эмоции, а собеседник требует от вас немедленно предпринять действия, скорее всего, это преступник. Как себя обезопасить Чтобы не стать жертвой мошенников, следуйте рекомендациям: Не разглашайте свои личные данные по телефону, включая различные коды и пароли.
Прекращайте любой телефонный разговор, который вызывает у вас подозрения. Если вы переживаете за родственников, перезвоните им.
Так, пенсионерка из Тюмени продала квартиру и отдала 12 миллионов рублей телефонным аферистам , убедившим ее перевести свои сбережения из якобы небезопасного банка на новый счет. Позднее, прямо на глаза у журналистов пожилая женщина решила отправить неизвестным еще одну крупную сумму денег. Мошенники зарабатывают миллиарды на доверчивых людях Источник: Полина Авдошина В свою очередь, волгоградец стал жертвой фейковой экскортницы и перевел злоумышленнику с женским голосом 97 000 рублей. Мошенником оказался житель Пензенской области, продающий несуществующие эротические услуги, имитируя голос проститутки и выбивающий с «клиентов» дополнительные средства. На смену таким незатейливым, но эффективным схемам обмана, приходят современные технологии, с возможностями которых знаком далеко не каждый простой человек.
Зато злоумышленники уже успели изучить и опробовать для совершения преступлений такие новейшие разработки, как нейросети. Даже начинающие мошенники могут быть опасны Нейросети могут облегчить работу специалистам практически любой сферы, а значит, и автоматизировать часть действий киберпреступников. Растущий интерес среди злоумышленников к широким возможностям нейросетей выявили и эксперты по информационной безопасности. Аналитик «Лаборатории Касперского» Алиса Кулишенко рассказала, чем чат-боты могут быть полезны для мошенников. А злоумышленники, чтобы избежать их, формируют специальные запросы — джилбрейки. Много теневых площадок даркнета существуют в формате форумов, — поделилась Алиса Кулишенко. Раньше была нужна коммуникация между человеком и мошенником, но сейчас часть запросов может быть получена автоматически.
Даже начинающие злоумышленники могут представлять угрозу за счет получения компетенции от языковых моделей. Специалисты по кибербезопасности предупреждают — нейросети уже используют для обмана пользователей Источник: Полина Авдошина Искусственный интеллект дает неограниченные возможности злоумышленникам создавать новые способы наживы над простым интернет-пользователем. И аферисты по максимуму экспериментируют с технологическими разработками. Используются они и для создания вредоносных ПО, — утверждает эксперт в области интернет-безопасности. Каждый месяц появляются новые и становятся всё более распространены и позиционируются как аналоги ChatGPT, но сразу со снятыми ограничениями. Угроза чат-ботов заключается в их способности генерирования фишинговых сообщений и разработке вредоносных ПО и задач. Какие еще инструменты нейросетей можно использовать для зловредных целей, подробнее рассказал руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов.
Например, для завлечения человека нажать на какую-то ссылку, чтобы тот скачал вредоносный файл и так далее. Под удар попал даже мэр Марченко Искусство создания дипфейковых видео изучили не только мошенники, но и авторы волгоградских телеграм-каналов. Не так давно широкое распространение в сети получили несколько сгенерированных видео с использованием лица мэра Волгограда Владимира Марченко, в которых он предстает в образах героев известных фильмов и рэперов. В следующем — играет роль Уильяма Уоллеса в известном фильме «Храброе сердце».
Никакого похищения не было Мать другого ребёнка набрала 911 и попыталась объяснить, что происходит. Диспетчер моментально заподозрила, что речь идёт о мошенничестве, и что в реальности никакого похищения не было. В первую очередь, потому, что поговорить с дочерью Дженнифер не позволили. О чём она и сообщила звонившей. Очень скоро это подтвердилось: после нескольких неудачных попыток дозвониться до Брианны, та перезвонила сама, недоумевая, что случилось. В действительности они вместе с отцом спокойно катались на лыжах в 110 милях от дома. По собственному признанию Дженнифер, она никогда не забудет тех минут ужаса, которые ей пришлось пережить из-за мошенников. Когда дочь перезвонила и сообщила, что с ней всё в порядке, мать просто сползла на пол в слезах облегчения. Дипфейк как инструмент мошенничества Правоохранительным органам давно знакомы подобные схемы, однако благодаря ИИ они вышли на принципиально новый уровень.
Эксперт предупредил, что мошенники могут подделывать голоса родственников жертв
В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч. Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах.
Пенсия.PRO
Мошенники стали активно использовать технологию синтеза голоса для шантажа жертв и угрожают «сливом» поддельных аудиозаписей в СМИ и правоохранительные органы. К защитнику уже обращались за юридической помощью известные лица, столкнувшиеся с подделкой их голоса. Предполагаемая жертва, имя которой он не может назвать из-за профессиональной тайны, смогла с помощью экспертизы доказать растиражированный «фейк», однако в суд иск подан пока не был. Для этого необходима экспертиза, а вот гарантии, что она подтвердит полное совпадение, пока нет. Необходимо высочайший класс экспертов, и не каждая организация с этой задачей справится. Я вижу в развитии технологий синтеза голоса большую угрозу именно в уголовной практике. Сейчас почти любой мошенник может разыграть телефонный звонок, заменить голос в нём на голос жертвы и шантажировать, например, уголовным делом или падением деловой репутации. Важно помнить, что даже в случае положительного решения экспертизы и суда, уголовное преследование стоит для жертвы существенных усилий. Это вызывает у меня серьезные опасения», — отмечает Жорин. При этом адвокат считает, что время судебных разбирательств по делам об использовании нейросетей в контексте интеллектуальной собственности пока не настало.
После получения первого платежа они сказали, что якобы немецкая компания отправила британской сумму на возмещение убытков. Затем они позвонили в третий раз и запросили очередной платеж. Тогда руководитель фирмы из Великобритании заподозрил подвох и не стал платить. Стало известно, что деньги ушли в венгерский банк, а затем в Мексику, а после разошлись по разным счетам.
Об этом «Газете. Ru» рассказал директор направления кибербезопасности EdgeЦентр Артем Избаенков. Мошенники могут использовать эту технологию для создания видео, в котором, например, CEO компании якобы призывает к переводу средств на определенный счет. Такая технология применяется сегодня и для создания компрометирующего материала для шантажа, — говорит он.
Трухачев добавил, что эти технологии также используют для создания информационных вбросов.
Например, копируют речь президента или других известных личностей. В таком случае, по словам эксперта, нужно перезвонить на настоящий номер человека и уточнить, так ли это на самом деле. Сергей добавил, что преступники для подделки голоса используют видео. При этом важно использовать надежную комбинацию цифр, букв и знаков препинания.
ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
В 2020 году мошенники клонировали голос директора банка в ОАЭ и использовали его для ограбления финучреждения. Руководитель британской фирмы не сомневался, что разговаривает со своим руководителем, он узнал акцент и тембр голоса начальника. Мошенники подделали голос директора компании с помощью искусственного интеллекта и украли 243 тысячи долларов. В России активизировались мошенники, подделывающие голоса близких и коллег своих потенциальных жертв.
Мошенники научились подделывать голоса и видео. Как распознать подмену
Нередко аферисты подделывают голос родственников или знакомых потенциальной жертвы. Для подделки голосов мошенники используют нейросеть, отметил Андрей Ефимов Фото: Александр Елизаров © «Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса.
Мошенник обманывал людей, подделывая голоса близких по телефону
Сейчас же аферистам даже не нужно играть роль, попавшего в беду родственника или знакомого! Чтобы выманить сбережения с потенциальных жертв, они используют нейросеть, с помощью которой имитируют голоса их реальных близких или приятелей. А их последнее время не мало. Один из последних случаев произошел с 23-летней иркутянкой, блогером Анастасией Богдановой. В середине февраля девушка получила несколько голосовых сообщений в мессенджере от подруги, в которых просила одолжить 40 тысяч рублей.
Поэтому я уточнила сумму и счет, на который нужно отправить деньги. Подруга отправила якобы карту своей мамы. И в это время стали приходить голосовые. Два сообщения были буквально на две секунды.
В них говорилось: «Люблю! Свои деньги я так и не получила назад. Как мошенники используют голосовые дипфейки и можно ли защититься от такого обмана? Как подделывают голоса?
Искусственный интеллект можно заставить говорить чьим-то голосом, - рассказывает Алексей Раевский.
Попросили сразу полмиллиона. Но у женщины такой суммы не оказалось, согласились на 55-ть. При этом позвонить сыну самостоятельно ошарашенная мать не могла: преступники просили ее все время держать телефон в режиме разговора. Оказалось, что все это время за ней велась слежка. Взяв деньги, злоумышленник испарился, и только потом женщина, придя домой и дозвонившись до сына, выяснила, что все это был большим спектаклем, который разыграли мошенники. Ни в какое ДТП ее сын не попадал.
Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества: «Схемы мошенничества остаются неизменными, однако использование современных технологий во многом развязывает руки злоумышленникам, что позволяет им старые успешные схемы подавать под новым углом. В наше время каждый, у кого есть смартфон и любая сумма денег на счету, становится потенциальной жертвой аферистов. Важно провести беседу с близкими и установить некую кодовую фразу, чтобы быть уверенным, что входящие звонки не являются мошенническими. Основное правило — не паниковать и не торопиться. Не стоит вестись на манипуляции мошенников и отправлять деньги на незнакомый счет. Для начала свяжитесь со своими родственниками или знакомыми, чтобы проверить информацию о предполагаемой тревожной просьбе». Эксперты Центра цифровой экспертизы Роскачества отмечают, что в скором времени на смену аудиозвонкам, сгенерированным нейросетью, придут видеозвонки DeepFake. Примеры подобных мошеннических схем уже существуют, но пока они не получили широкого распространения. Все потому, что технология DeepFake еще недостаточно совершенна, и даже простой интернет-пользователь легко отличит поддельное видео от настоящего.
К тому же, киберэксперты не исключают, что в будущем записи разговоров с клиентами аферисты будут продавать. Так же, как сейчас они торгуют базами телефонных номеров. Читайте также.
Затем они позвонили в третий раз и запросили очередной платеж. Тогда руководитель фирмы из Великобритании заподозрил подвох и не стал платить. Стало известно, что деньги ушли в венгерский банк, а затем в Мексику, а после разошлись по разным счетам.
Мошенник подделал голос друга и выманил 50 000 ₽
«Таймырский телеграф» – Мошенники продолжают совершенствоваться: теперь они стали использовать специальную программу, с помощью которой подделывают голоса. IT-эксперты рассказали, как мошенники подделывают голоса россиян. Мошенники начали подделывать голоса россиян с помощью искусственного интеллекта. Об этом сообщает РИА Новости со ссылкой на данные Центробанка. Новости Технологии 29 июля 2022. Телефонные мошенники начали подделывать голос «Алисы». Для того, чтобы научить его этому, мошенникам нужен образец голоса. Теперь мошенники с помощью нейросетей могут подделывать голоса прямо во время разговора.