Единственное, что в этом сообщении правда – то, что информация о голосовых звонках хранится в течение полугода и может быть использована МВД, ФСБ, ФСО, СВР и ФСИН по решению суда. Злоумышленники стали практиковать новый метод вымогательства через социальные сети и мессенджеры с использованием ИИ для создания поддельных голосовых сообщений. Злоумышленники стали практиковать новый метод вымогательства через социальные сети и мессенджеры с использованием ИИ для создания поддельных голосовых сообщений.
"Техно": мошенники стали подделывать голосовые сообщения пользователей в Сети
В фейковой записи голосом «президента» сообщается, что украинские военные вторглись на территории Курской, Белгородской и Брянской областей. Признанный иноагентом «Голос» усердно тиражировал этот фейк. Тогда же в подмосковном Раменском движение уличили в публикации еще одной лжи — о вбросе бюллетеней. Мошенники воруют голосовые сообщения, а потом с их помощью выманивают деньги у близких и знакомых жертв. Член комитета Госдумы по обороне генерал Андрей Гурулев назвал фейком информацию о том, что Россия якобы планирует военную операцию в Казахстане.
Захарова заявила, что Россия продолжит открывать глаза миру на украинские фейки
Единственное, что в этом сообщении правда – то, что информация о голосовых звонках хранится в течение полугода и может быть использована МВД, ФСБ, ФСО, СВР и ФСИН по решению суда. Несколько дней назад мне пришло сообщение от коллеги в WhatsApp с просьбой проголосовать за ее «племянницу Лену» на каком-то сайте, и я перешла по ссылке. Преступники рассылают голосовые сообщения через личные и групповые чаты.
Опасно ли открывать голосовые сообщения с незнакомых номеров?
Но это все не более чем очередные домыслы. Таким образом, рассылка с предупреждением о том, чтобы пользователи не скачивали на смартфоны аудиосообщение с названием «Разговор Путина и Кадырова» не более чем фейк. Возможность заражения гаджета через фото или аудиофайл невозможна. Этот материал создан для платформы — агрегатора инструментов для борьбы с фейками «Лапша Медиа».
В любом случае до недавних пор аудиосообщение считалось чем-то вроде электронной подписи — мол, да, это точно я. А теперь уже нет, продолжает гендиректор IT-компании ITFB Group Роман Волков: Роман Волков гендиректор IT-компании ITFB Group «Голосовое сообщение — действительно формат, к которому больше всего доверия, так как жертва мошенничества слышит голос человека, и если в речи нет настораживающих моментов, например нетипичных слов, обращений, то и повода для недоверия нет. Дополнительным фактором служит то, что голосовое сообщение приходит с аккаунта знакомого человека, человек по умолчанию верит отправителю и не обращает внимания на технические погрешности или необычные фразы в сообщении.
Используются разные дополнительные уловки, например применяются бытовые шумы на заднем фоне, это позволяет мошенникам решить сразу две задачи: скрыть огрехи, которые есть в аудио, и повысить уровень доверия. Серия коротких голосовых сообщений также позволяет скрыть недочеты, но если человек не использует такой способ общения в обычной жизни, то это насторожит скорее жертву. Сгенерировать голос позволяют нейросети, доступные всем желающим в интернете за относительно небольшую плату, ей не нужно много файлов, она может подхватить голос с одной записи длительностью 10-15 секунд». Даже притом что создание копии голоса может почти ничего не стоить, действительно массовым такой вид мошенничества вряд ли станет.
Схема требует индивидуального подхода к каждому кейсу, а какие-нибудь фишинговые письма можно рассылать сразу миллионам адресатов.
Даже под прикрытием плохого сигнала телефона слышно, что голос немного роботизированный. Но это сносно.
И если бы вы были младшим сотрудником, волновавшимся после получения предположительно срочного сообщения от вашего начальника, вы, возможно, не слишком задумывались о качестве звука. Атака в конечном итоге не увенчалась успехом, поскольку сотрудник, получивший голосовую почту, сразу подумал, что она подозрительна и отправил ее в юридический отдел фирмы. Но такие атаки будут более распространенными, так как глубокие поддельные инструменты становятся все более доступными.
Все, что вам нужно для создания голосового клона, — это доступ ко множеству записей вашей цели. Чем больше у вас данных и чем лучше качество звука, тем лучше будет итоговый голосовой клон. И для многих руководителей крупных фирм такие записи могут быть легко собраны из телефонных звонков, интервью и публичных речей.
Для борьбы с таким новым способом эксперт посоветовал предавать его большей огласке, а также не записывать длинных сообщений, а лучше даже удалять их после прослушивания собеседником. Киберпреступники часто атакуют не только в период новогодних каникул, но и после их окончания. Директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда» Павел Кузнецов рассказал о самых опасных кибератаках в первую неделю нового года. Сотрудники правоохранительных органов составили топ фраз, которые чаще всего применяют телефонные мошенники.
Хакеры голосом Путина объявили по радио о вторжении ВСУ и всеобщей мобилизации
Мошенники научились подделывать голосовые сообщения в мессенджере «Телеграм» с помощью искусственного интеллекта (ИИ). Жертвам приходят по электронной почте уведомление якобы от WhatsApp о получении нового голосового сообщения. В телеграме появился новый бот, который напряженным голосом и под музыку будто из новостей зачитывает любую околесицу, которую ему пришлют. Смотрите видео онлайн «КАК ОТПРАВИТЬ ФЕЙКОВОЕ ГОЛОСОВОЕ СООБЩЕНИЕ ВКОНТАКТЕ» на канале «Мастерство в Искусстве» в хорошем качестве и бесплатно, опубликованное 13 сентября 2023 года в 1:34, длительностью 00:01:17. Затем они используют нейросети, чтобы на основе тех голосовых сообщений создать новые с просьбами о помощи. Затем мошенники скачивают сохраненные голосовые сообщения и с помощью сервисов искусственного интеллекта синтезируют новые «голосовушки» с необходимым контекстом, указал Егоров.
Кибермошенники используют ИИ для генерирования голосовых в WhatsApp
Вредоносная кампания проводит жертву через несколько этапов, и в итоге она устанавливает на свое устройство вредоносное ПО, позволяющее злоумышленникам похитить ее учетные данные. Возможность отправлять голосовые сообщения в группы и в личку присутствует в мессенджере WhatsApp уже много лет. На прошлой неделе функция получила некоторые обновления, чем не преминули воспользоваться мошенники. Жертве приходит по электронной почте уведомление якобы от WhatsApp о получении нового голосового сообщения.
Если в голосе нет эмоций или много посторонних шумов, то велик риск фейка. Следует задать «голосу» вопрос, ответ на который точно знает лишь родственник. Хороший способ подстраховки — перезвонить знакомому или родственнику. Нельзя пересылать через мессенджеры или соцсети конфиденциальные финансовые сведения.
В случае любых сомнений в Центробанке РФ рекомендуют связаться с человеком, от имени которого вам позвонили, и уточнить у него всю информацию.
Фабрика дипфейков: как подделывают голоса Как рассказал «Известиям» ведущий эксперт отдела разработки и тестирования компании «Код безопасности» Александр Самсонов, подделывать голос можно с помощью большого количества сервисов и программ, которые способны генерировать голос человека по записанному образцу. При этом «похожесть» синтезированного голоса зависит от качества и объема записанных образцов. Консультант по информационной безопасности компании R-Vision Карэн Багдасарян дополняет, что в генерации голосовых дипфейков большую роль играет искусственный интеллект ИИ. При помощи нейросетей преступники могут воспроизвести интонацию, ритм и особенности речи конкретного человека, чтобы создать убедительное аудиосообщение. Это, конечно, люди старшего возраста. В то же время рискуют и родственники публичных людей, поскольку образцы голосов звезд легче найти в открытом доступе, — поясняет Александр Самсонов. Например, у родителей действительно может быть непутевый сын, который попадает в плохие истории. За счет стресса и доверчивости различить тонкости в голосе непросто, — поясняет специалист.
За борьбу с подделками решили взяться на государственном уровне Как отмечает Александров, сегодня круг потенциально успешных атак мошенников расширяется за счет того, что голос, имитированный ИИ, действительно стал похож на оригинал, и в зоне риска находятся люди, которые знают о подобных мошеннических атаках, но не в курсе применения современных технологий в сфере копирования голоса. Как не стать жертвой мошенника Для того чтобы создать голосовой дипфейк, имитирующий речь конкретного человека, злоумышленникам нужны образцы его голоса.
Возможность отправлять голосовые сообщения в группы и в личку присутствует в мессенджере WhatsApp уже много лет.
На прошлой неделе функция получила некоторые обновления, чем не преминули воспользоваться мошенники. Жертве приходит по электронной почте уведомление якобы от WhatsApp о получении нового голосового сообщения. В уведомление встроена кнопка «Воспроизвести» и аудиодорожка с указанием продолжительности аудиозаписи.
Другие новости СВО
- Мошенники научились подделывать голоса с помощью нейросети — 16.08.2023 — В России на РЕН ТВ
- Новый прием мошенников: синтез голоса
- Новый фейк о коронавирусе опровергли в Менделеевске
- Голосовое сообщение в мессенджерах - фейк - Официальный сайт газеты "Заря"
Опасно ли открывать голосовые сообщения с незнакомых номеров?
Их буквально тьма — от якобы новостей про СВО до телефонного мошенничества и киберворовства на доверии. Люди, будьте бдительны. Об этом сегодня говорили в Москве на международном форуме «Диалог о фейках».
Как рассказали в управлении МВД по борьбе с противоправным использованием информационно-коммуникационных технологий, с помощью подделанных нейросетью голосов жертв злоумышленники вымогают деньги у его контактов.
На первом этапе преступники взламывают аккаунты Telegram или WhatsApp принадлежит Meta, признана экстремистской, запрещена в РФ с помощью фейковых голосований. Затем они скачивают сохраненные голосовые сообщения и создают новые сообщения с нужным контекстом. В итоге они рассылают эти сообщения в личные и групповые чаты, подкрепляя их сгенерированными голосовыми сообщениями и отфотошопленными банковскими картами с поддельными именами получателей.
В полиции советуют: "Если вы подозреваете, что ваша анкета была взломана, то необходимо заблокировать ее и сообщить администраторам ресурса об этом как можно скорее.
Если же сообщение прислано с незнакомого номера, это, очевидно, мошенники. Некоторым пользователям не помешало бы научиться дружить с современными технологиями. Посмотрите на примеры, подтверждающие это: 35фотографий.
Мы уже предупреждали россиян не вести телефонных разговоров с неизвестными, чтобы исключить запись голоса. Такие данные легко использовать для хищения денег. Ранее мошенники использовали сложные современные технологические решения. Теперь они научились применять простые голосовые сообщения в мессенджерах, чтобы убеждать людей помочь друзьям или близким, от лица которых ведется общение.
Будьте бдительны и не поддавайтесь на уговоры, проверяйте информацию через дополнительные каналы связи.
Comment section
- Читайте также:
- Videos Самый смешной фейк с голосовыми сообщениями про коронавирус |
- Подписка на дайджест
- ВАМ МОЖЕТ БЫТЬ ИНТЕРЕСНО:
Нет комментариев
- Дискредитировали выборы, тиражировали фейки: политологи о движении «Голос»
- Зачем мошенники копируют ваши голосовые сообщения из мессенджеров
- Читайте также
- Мошенники начали подделывать голоса россиян с помощью ИИ
- Россиянам рассказали, как мошенники используют их голосовые сообщения и нейросети