Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. В России активизировались мошенники, подделывающие голоса близких и коллег своих потенциальных жертв. Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. О том, что мошенники подделывают голос «умного» помощника «Алиса» для того, чтобы обзванивать россиян и вводить их в заблуждение, сообщили в «Яндексе». Мошенники ради обмана россиян подделывают голоса родных и близких потенциальных жертв — об этом рассказали в Центробанке РФ.
Голос в трубке заставил московского врача перевести мошенникам 3 млн рублей
Для обмана граждан мошенники начали подделывать голоса родных и знакомых потенциальной жертвы. Об этом, как передаёт 17 января РИА Новости, предупреждает Центробанк. В статье рассказывается о том, как мошенники используют технологию подделки голоса для обмана людей и получения доступа к их биометрическим данным. Из-за комплексного и детализированного подхода мошенники сейчас могут подделать буквально все.
Мошенник обманывал людей, подделывая голоса близких по телефону
Предполагаемая жертва, имя которой он не может назвать из-за профессиональной тайны, смогла с помощью экспертизы доказать растиражированный «фейк», однако в суд иск подан пока не был. Для этого необходима экспертиза, а вот гарантии, что она подтвердит полное совпадение, пока нет. Необходимо высочайший класс экспертов, и не каждая организация с этой задачей справится. Я вижу в развитии технологий синтеза голоса большую угрозу именно в уголовной практике. Сейчас почти любой мошенник может разыграть телефонный звонок, заменить голос в нём на голос жертвы и шантажировать, например, уголовным делом или падением деловой репутации. Важно помнить, что даже в случае положительного решения экспертизы и суда, уголовное преследование стоит для жертвы существенных усилий. Это вызывает у меня серьезные опасения», — отмечает Жорин. При этом адвокат считает, что время судебных разбирательств по делам об использовании нейросетей в контексте интеллектуальной собственности пока не настало. Он связывает это с тем, что судьи редко принимают нестандартные решения, а изменения настанут только после появления практики от высших судов. Говорить про защиту интеллектуальных прав пока преждевременно.
Если же профиль все же взломали, то стоит связаться техподдержкой социальной сети. В случае мошеннических действий нужно обратиться в правоохранительные органы. Родителям же, чьи дети активно пользуются соцсетями и мессенджерами, рекомендуется владеть актуальной информацией о круге общения ребенка. Это необходимо, чтобы обезопасить детей от нежелательных контактов и предостеречь от передачи данных злоумышленникам. Но сценарий общения у мошенников всегда типичный.
Кроме того, они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия. Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе искусственного интеллекта. Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. Могут ли мошенники позвонить в банк и украсть деньги? С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков.
Таких разводов будет все больше, поэтому советуем вам хорошо подумать, прежде чем отправлять деньги человеку, который просит их по телефону. Даже если он звонит со знакомого вам номера, и вы узнали голос. Лучше перестраховаться, положить трубку и набрать номер самому. Или спросить у звонящего какой-нибудь факт, который точно знает знакомый, но не может знать мошенник. Подписывайтесь на наш Telegram , чтобы не пропустить крутые статьи Группа Geekville Вконтакте со всем актуальным контентом Оцените статью.
Мошенники активно выманивают образцы голоса россиян
ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян — Большой город | Как мошенникам удается подделать голос Нейросети на базе искусственного интеллекта могут имитировать голос позвонившего вам знакомого или родственника. |
Центробанк: мошенники стали чаще имитировать голоса родных и знакомых россиян | Мошенничество Интернет-мошенники Телефонные мошенники Взлом Видео Вертикальное видео Telegram (ссылка). |
ЦБ: мошенники стали обманывать россиян, подделывая голоса их родных
Мошенники подделывают голос знакомых вам людей и воруют деньги | Те, кто разбирается в технологиях мошенничества, без труда подделают не только голос, но и другие личные данные. |
Мошенники начали активно выманивать образцы голосов граждан - Ведомости | Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. |
Центробанк: мошенники стали чаще имитировать голоса родных и знакомых россиян | Подделывать голоса мошенники могли задолго до появления нейросети. |
ЦБ: мошенники научились имитировать гoлоса родных потенциальной жертвы | Мошенники убедили врача оформить три кредита и перевести все свои деньги на неизвестные счета, напугав списанием средств в пользу Украины и ВСУ. |
Мошенник подделал голос друга и выманил 50 000 ₽
Мошенники начали использовать поддельные голоса родственников жертв | Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. |
Мошенник обманывал людей, подделывая голоса близких по телефону | Телефонные мошенники научились подделывать не только номера, но и голоса. |
Мошенники подделывают голоса с помощью нейросетей: как защитить свой голос и не стать их жертвой | С помощью поддельного голоса подруги мошенники смогли похитить браслет Bulgari стоимостью полмиллиона у простой и безработной студентки из Москвы. |
Мошенники подделывают голоса и крадут деньги – ГТРК «Коми Гор» | 15 миллионов звонков в день совершали телефонные мошенники в России в апреле, почти в два раза больше чем в прошлом году. |
Мошенники начали использовать поддельные голоса родственников жертв | Правмир | Как мошенникам удается подделать голос. |
Мошенники научились подделывать голоса и видео. Как распознать подмену
Схема обмана та же: ИИ звонит и просит перевести деньги. Преступники заставляют жертв думать, что они разговаривают с родственником, которому вдруг понадобились деньги, например, на возмещение ущерба в результате ДТП. Кузьменко посоветовал сразу перезвонить своим родным и знакомым, от которых и была получена просьба. Еще лучше придумать кодовое слово, для своих, чтобы можно было понять: звонят родные, а не мошенники. При помощи методики синтеза медиаконтента, основанной на искусственном интеллекте, удается наложить ненастоящие изображение или видео на реальные. Технология называется "дипфейк" от англ. За рубежом злоумышленники опробовали дипфейки при устройстве на удаленную работу в сфере IT для получения доступа к базам данных.
Последние технологии в области обработки аудиофайлов — один из таких примеров. Разработчики искусственного интеллекта приложили немало усилий, чтобы воспроизводить речь людей. В 2024 году мошенники приняли эту разработку с радостью и начали подделывать разговор, выдавая себя за родственников и друзей телефонных жертв. Сложно повесить трубку, когда в трубке раздается «голос» матери, дочери, подруги, которая якобы попала в беду и просит отправить деньги на проверенный счет. На это всё и рассчитано. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента. Причем для клонирования голоса программе нужно проанализировать всего лишь 30-секундный отрывок реального голоса, который сейчас без труда можно найти в аккаунте любого пользователя соцсетей. Затем телефонному мошеннику остается раздобыть контакт жертвы и никак не выдать себя во время разговора. А говорить можно все что угодно: онлайн-инструменты позволяют произносить напечатанный текст голосом любого человека. Что делать, чтобы не попасться на уловку Если вам поступил звонок, где знакомый голос просит вас о финансовой помощи, трезво оцените ситуацию. Действительно ли это ваш родственник, друг или коллега?
Сергей добавил, что преступники для подделки голоса используют видео. При этом важно использовать надежную комбинацию цифр, букв и знаков препинания. Также нужно установить везде двухфакторную аутентификацию. То есть, чтобы при входе в аккаунт на телефон или электронный адрес приходило подтверждение авторизации. Кроме того, важно устанавливать и пользоваться только теми программами, которые размещены на официальных сайтах производителя.
Это вызывает у меня серьезные опасения», — отмечает Жорин. При этом адвокат считает, что время судебных разбирательств по делам об использовании нейросетей в контексте интеллектуальной собственности пока не настало. Он связывает это с тем, что судьи редко принимают нестандартные решения, а изменения настанут только после появления практики от высших судов. Говорить про защиту интеллектуальных прав пока преждевременно. Сейчас в некоторых судах даже иски о защите чести и достоинства остаются диковинкой, не говоря уже о нейродипфейках», — указал защитник. Хорошо забытое старое Преступники уже давно используют синтез голоса для различных злоупотреблений, не афишируя доступность технологии модуляции и её мощности для обывателей, уверен бывший следователь и действующий адвокат Александр Бурчук. Суды и следователи нередко сталкиваются с поддельными аудиозаписями, поэтому назвать технологию чем-то особенным защитник не может. Злоумышленники подделали голос сотрудника ФСБ и вымогали с помощью фейкового аудио деньги. Запись телефонного разговора, оказавшаяся на столе у следователя, и голос жертвы на ней соответствовали нормам фоноскопической экспертизы, утвержденным Минюстом. Защита тогда нашла способ, как доказать невиновность своего доверителя, но подробности мне неизвестны», — уточнил собеседник агентства.
«Совпадение полное»: мошенники подделывают голоса родных и близких
Для подделки голосов мошенники используют нейросеть, отметил Андрей Ефимов Фото: Александр Елизаров © Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. Голоса других людей злоумышленники имитируют при помощи специальных программ — этой уловкой они вынуждают потерпевших сообщать различные сведения или совершать денежные переводы. Мошенники научились использовать современные технологии DeepFake для имитации голоса, сообщили в Роскачестве. Для того, чтобы научить его этому, мошенникам нужен образец голоса.
Телефонные мошенники стали подделывать номера и голоса родственников
Телефонные мошенники с искусственным интеллектом играют на психологии доверия и страха, заставляя людей отдавать деньги, делая вид, что они знают человека, сидящего на другом конце провода. Как же работает эта технология и можно ли как-то лучше подготовиться к встрече с мошенниками будущего? Мы побеседовали с Оли Бакли, профессором кафедры кибербезопасности Университета Восточной Англии, чтобы узнать больше об этих новых мошенничествах. Что такое deepfake?
Хотя мошенничества продолжают существовать в самых разных формах, эти новейшие разработки, как правило, опираются на технологию, известную как дипфейк. Используя алгоритм искусственного интеллекта, они создают контент, который выглядит или звучит реалистично. Это может быть видео или даже просто аудио Бакли Им требуется очень мало обучающих данных, и они могут создать нечто достаточно убедительное с помощью обычного ноутбука, который может купить каждый По сути, дипфейки берут примеры видео- или аудиозаписей, и учатся точно воссоздавать их движения или голос.
Это может быть использовано для того, чтобы поместить лицо на тело другого человека, заставить его голос читать определенный текст или же совершать вредоносные действия. Несмотря на то, что технология кажется сложной, на самом деле сделать дипфейк самостоятельно на удивление просто. Для этого достаточно иметь в открытом доступе видеозапись или запись голоса и недорогое программное обеспечение.
Это занимает секунды, а не минуты или часы, и любой, у кого есть немного времени и доступ к YouTube, может понять, как это сделать", - объясняет Бакли. Появились удивительные технологии, которые еще недавно были бы научной фантастикой.
Последний способ, к примеру, используют для «продвижения» несуществующих инвестиционных проектов, добавляет старший исследователь данных «Лаборатории Касперского» Дмитрий Аникин. Сами данные для подделки голоса собираются в процессе обычного телефонного разговора злоумышленника с жертвой, поясняет он.
По словам Семенычева, мошеннические схемы, связанные с подделкой изображения или видео, распространены в меньшей степени, так как более сложны и ресурсоемки. Такие активности в основном направлены на нанесение репутационного ущерба, уточняет он. При этом в действующей практике использование дипфейков чаще встречается не для имитации клиента или его знакомого, а для сокрытия внешности преступника, чтобы было невозможно установить его личность и задокументировать следы преступления, поясняет представитель ВТБ. В таких случаях чаще используются «личности» известных актеров или политиков, а также случайных пользователей, не связанных с атакуемым клиентом, уточняет он.
Сегодня опасность, связанная с получением образцов голоса и видео, крайне высока и создает реальную угрозу безопасности как для физлиц, так и для юрлиц, отмечает Мельников. Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев.
Номер высветился незнакомый, но к моему ужасу я услышал в трубке плачущий голос своей дочери. Меня привезли в реанимацию. У меня сломано три ребра, порвана губа и еще с ногой что-то не так. А этот телефон мне дала добрая тетя-водитель. Да что еще можно чувствовать в такой момент. Следователь сказал, что девочка в машине при аварии из-за меня пострадала и на ее лечение нужно полтора миллиона рублей. Тут я наконец-то с усилием включил мозг и понял, что меня откровенно разводят. Я положил трубку.
И попытался представить, что у дочки сейчас на самом деле все в порядке и стал названивать ей на мобильный. А вот тут меня накрыла уже вторая волна липкого ужаса. В трубке автомат ответил, что абонент отключен или находится вне зоны действия сети. Я тут же отчетливо увидел на черно-красном от крови асфальте раздавленный мобильник. Затем дочку на операционном столе и уже стал сомневаться, что это был розыгрыш. В этот момент вновь позвонил тот самый, незнакомый номер и плачущая девочка с голосом моей дочери начала вновь рассказывать ту же историю с самого начала. Причем слово в слово.
Ранее ЦБ РФ рассказал о новой схеме, которую начали использовать телефонные мошенники.
Мошенники научились подделывать голоса. Как не попасться на уловку
И денег своих больше уже никогда не увидят. Илья Тараканов Так, как же может искусственный интеллект так ловко затуманить мозг родителю, который знает голос и интонацию своего ребенка лучше, чем свои пять пальцев? И как мог робот догадаться, что ребенка нет дома, и он мог как раз в это время переходить дорогу? Сегодня, когда раскручиваются такие бренды как ChatGPT, способный поддерживать диалог с пользователем и генерировать любой контент подделать голос совсем не сложно.
Для этого мошенники с помощью нейросетей узнают все необходимые личные данные, номера телефонов членов вашей семьи. Их возраст, данные геолокации. Затем звонят вашей дочери, например, предлагают кредит.
Задают несколько вопросов, записывают ее голос с характерными интонациями в зависимости от тем, которые они с ней обсуждали, а далее за них все сделает программа. Они вкладывают необходимый текст, а параллельно голос нужного человека с различными его оттенками. И программа выдает им клонированный дипфейк голоса вашего ребенка.
Что касается поликлиники, то зная точное местонахождение ребенка мошенники задали ИИ алгоритм возможных вариантов вопросов и ответов в случае наезда на дороге. И робот так мог вас заговорить, что вы бы и не поняли, кто на другом конце провода, — пояснил эксперт. Сегодня телефонные ИИ обманщики по-прежнему могут представиться кем угодно — банковскими работниками, полицейскими, медиками или родственниками, лишь бы выманить деньги у «клиента».
Вот только теперь роботы с помощью нейросетей научились находить нужные данные, место работы, номер школы, голос, фото, видео, привычки и так далее не одной жертвы, а сразу нескольких. При таком раскладе шанс найти напуганного папу или маму, готовых выкупить ребенка за любые деньги, возрастает в разы.
В конце декабря полицейские Северной столицы обезвредили организованную группу телефонных мошенников.
По версии следствия, злоумышленники приобрели для совершения преступлений спецоборудование — телефонные шлюзы и другие устройства. Они позволяли совершать звонки из-за границы. Лента новостей.
Не отправляйте свои личные данные, фотографии и видео другим людям без необходимости. Будьте осторожны при звонках с незнакомых номеров, не спешите первым отвечать, используя «Да», «Согласен», «Подтверждаю». Ставьте надежные пароли и подключите двухфакторную аутентификацию везде, где это возможно. Не используйте биометрию как единственный метод аутентификации. Вам позвонили из Банки. Сотрудники контактного центра Банки. Если сомневаетесь, что с вами говорит сотрудник Банки. Чтобы проверить, с кем вы говорили, зайдите на Банки. Мы его проверим и в ответном письме напишем, был ли звонивший нашим сотрудником или же это мошенник.
В последнем случае номер звонившего лучше заблокировать. Если к вам обратились от имени Банки.
Таких разводов будет все больше, поэтому советуем вам хорошо подумать, прежде чем отправлять деньги человеку, который просит их по телефону. Даже если он звонит со знакомого вам номера, и вы узнали голос. Лучше перестраховаться, положить трубку и набрать номер самому. Или спросить у звонящего какой-нибудь факт, который точно знает знакомый, но не может знать мошенник. Подписывайтесь на наш Telegram , чтобы не пропустить крутые статьи Группа Geekville Вконтакте со всем актуальным контентом Оцените статью.
Информационная безопасность операционных технологий
Однако созданные видеоклоны выдают свою искусственность темпом речи, асинхронностью и неестественными эмоциями. Сергей Кузьменко, руководитель направления информационной безопасности Центра цифровой экспертизы Роскачества: «Новые технологии используются не только передовыми IT-компаниями, но и вовсю группами мошенников. Волна дипфейков уже захлестнула Юго-Восточную Азию и Африку. До России она тоже непременно дойдет в ближайшее время и будет работать по схеме звонков якобы родственников, например, пожилым людям. Тем самым не за горами момент, когда обманы со звонками от силовых ведомств и сотрудников банка будут полностью осуществляться программными алгоритмами на базе нейросетей». Как распознать дипфейк Неестественная мимика — движения губ не попадают в такт с произносимыми словами, одно и то же выражение глаз, не видно смены эмоций. Низкое разрешение, пикселизация или нечеткость изображения, особенно в областях с активной мимикой — брови, уголки рта. Звук опережает картинку или не успевает за движениями персонажа.
Распознавать подделки помогают и сами нейросети.
К слову, на случай беды можно добавить другое кодовое слово, которое подскажет вам что «у меня всё хорошо, как сыр в масле катаюсь» означает «на самом деле я в беде» кодовое слово тут «сыр» Ну и как обычно Стоит рассказать родным, особенно пожилым, о новом способе обмана и проговорить как действовать в случае неожиданного звонка. В первые секунды паники здравый смысл может отключиться и это самое плодотворное время для мошенника. Если встретить такой звонок наготове, зная какие вопросы нужно задавать и что услышать в ответ, то можно не лишиться своих кровных. Маркетплейсы Ваш заказ отменён Вы решаете что пора, к примеру, купить новый ноутбук. Находите нужный на маркетплейсе, делаете заказ.
Неожиданно, заказ отменяется. Печаль… Дальше вы получаете сообщение от продавца, которое сулит какой-то один из трёх вариантов развития событий «Извините, с маркетплейсом накладка вышла, давайте мы вам напрямую отправим из нашего магазина? Оплатите, пожалуйста, по этой ссылке». Дальше покупатель попадает на фишинговый сайт, где оставляет данные карты и её стремительно обнуляют. Или же, в лучшем случае, он отправляет только стоимость товара. Деньги вам всё равно вернутся, раз процедура возврата запущена.
Но и товар на самом деле к вам тоже едет. Вы могли бы, коли вы получите и товар, и деньги, оплатить нам стоимость товара сейчас по этой ссылке? Дружно лайкаем Эта схема изощрённее. Судя по найденной информации, практикуют её жители поднебесной. Возможная жертва получает сообщение с предложением заработать деньги простым способом — лайкать товары. Дескать, таким образом магазин продвигает себя на площадке.
Делов-то, поставить с десяток лайков и получить на карту небольшую сумму.
По его словам, сейчас мошенники пользуются более простыми схемами, которые до сих пор, к сожалению, остаются эффективными. Речь идет об информации, которую они получают из-за утечек данных. Она происходит из систем госструктур или коммерческих компаний: розничных магазинов, банков, страховых. Имея определенную информацию о потенциальной жертве, мошенникам не представляет никакого труда получить код подтверждения или логин и пароль от интернет-банка. По его словам, мошенники знают, что люди неохотно говорят с силовиками, поэтому жертвы достаточно легко выдают информацию или совершают действия, которые от них требуют. Даже статистически получается так, что 95 процентов звонков — это мошенники.
Поэтому не стоит как-то из-за этого сильно переживать, а просто сбросить телефонный звонок и перезвонить в ту организацию, сотрудником которой представлялся звонящий. Если это правоохранительные органы, то нужно звонить в полицию", — разъяснил собеседник Москвы 24. Также эксперт предостерег от активного общения с мошенниками и их разоблачения. Даже знакомый с преступными схемами человек может попасться на удочку, уверен Ульянов.
Кроме того, они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия. Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе ИИ. Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека. Могут ли мошенники позвонить в банк и украсть деньги?
А что, если мошенники подделают ваш голос и позвонят в банк? Смогут ли они снять деньги со счета или оформить кредит? С имитированным голосом жертвы мошенники могут попытаться позвонить в банк и выполнить различные операции, такие как снятие денег со счета или перевод средств на другой счет. Однако ведущие российские банки не используют систему управления счетом с помощью голоса. Например, в Сбербанке в качестве биометрического идентификатора для проведения платежных операций используется не голос, а лицо человека. Банки сохраняют ваш голос в биометрической базе только для того, чтобы автоматически распознавать его при звонках в техническую службу поддержки банка. К тому же существует опасение, что мошенники запишут ваш голос и передадут в Единую биометрическую систему или биометрические системы банков. Однако, несмотря на возможность утечки биометрии из банковского хранилища, использовать ее для несанкционированной идентификации невозможно. Причина состоит в самом процессе идентификации.
Когда вы сдаете биометрические данные в базу, сохраняется не конкретное фото лица или одна аудиозапись голоса, а некий ее слепок в виде набора ваших характерных признаков. При этом восстановить по таким данным фото или голос человека практически невозможно. Помните, что банки заинтересованы в конфиденциальности данных своих клиентов, ведь несанкционированные операции могут нанести удар по их репутации и привести к финансовым потерям.
Телефонные мошенники стали подделывать номера и голоса родственников
Глава Сбербанка Герман Греф сообщил о телефонных мошенниках, которые совершают атаки на клиентов банков с помощью подделки голоса. О том, что мошенники подделывают голос «умного» помощника «Алиса» для того, чтобы обзванивать россиян и вводить их в заблуждение, сообщили в «Яндексе». По словам Шамиля Магомедова, заведующего кафедрой “Интеллектуальные системы информационной безопасности” Института кибербезопасности и цифровых технологий РТУ МИРЭА, телефонные мошенники действительно научились подделывать голоса людей. Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян. Как подделывают голоса?