Все письма и голосовые сообщения о внезапном банкротстве, просьбы о срочном переводе денежных средств или предоставлении личной информации нужно дважды или трижды проверять через альтернативные источники. «Мы не собираемся мириться с подобными фейками и продолжим открывать мировому сообществу глаза на происходящее», — заявила Захарова. Губернатор напомнил белгородцам, что никогда не рассылает голосовые сообщения. Поводом для распространения таких фейков стал, так называемый, «Закон Яровой», принятый в 2016 году. «Радиостанция подверглась хакерской атаке», — говорилось в сообщении «Коммерсантъ FM».
Из-за атак хакеров телефонные разговоры россиян стали прослушивать?
Голосовое сообщение члена комитета Госдумы по обороне, генерала Андрея Гурулева о якобы готовящейся атаке России на Казахстан было создано с помощью искусственного интеллекта. Обеспокоенные жители услышали по радио голос, похожий на привычный россиянам голос главы государства. Затем мошенники скачивают сохраненные голосовые сообщения и с помощью ИИ-сервисов синтезируют новые аудиосообщения с нужным контекстом.
"Техно": мошенники стали подделывать голосовые сообщения пользователей в Сети
Жительницу города Альметьевск (Татарстан), записавшую и отправившую ложное голосовое сообщение о коронавирусе, оштрафовали на 30 тыс. рублей. В мессенджерах распространяется голосовое сообщение, в котором неизвестный мужчина рассказывает о якобы скором введении комендантского часа в Тюменской области, перекрытии дорог и о том, что в регион стягивают военных. Это фейк, передает со ссылкой на Это сообщение стало вирусным в Казнете еще в январе 2022 года. Серия коротких голосовых сообщений также позволяет скрыть недочеты, но если человек не использует такой способ общения в обычной жизни, то это насторожит скорее жертву. узнал у эксперта по информационной безопасности Тараса Татаринова, могут ли нести опасность голосовые сообщения, отправленные с незнакомых номеров.
Голосовой помощник Алекса предсказывает дату начала Третьей мировой войны. Разбор фейка
Мошенники начали подделывать голоса россиян с помощью ИИ | Обеспокоенные жители услышали по радио голос, похожий на привычный россиянам голос главы государства. |
Новый фейк о коронавирусе опровергли в Менделеевске | Как создаются голосовые дипфейки, какие мошенничества с их использованием уже произошли, какие перспективы у deepfake-технологий и как защититься от подделки голоса. |
Депутат Гурулев назвал фейком голосовое сообщение о готовящемся нападении на Казахстан
Впервые такие сообщения начали распространять в конце 2017 — начале 2018 годов в связи с вступлением в силу «закона Яровой». После этого «страшилка» всплывает при каждом удобном случае: во время пандемии, с началом СВО тогда мы разбирали этот фейк , а теперь — и после объявления о частичной мобилизации. Это давняя норма , которая никак не связана с событиями последних месяцев.
В России хакеры атаковали радиоэфир. В Воронеже на одной из местных радиостанций прозвучало ложное обращение президента Владимира Путина.
В фейковой записи голосом «президента» сообщается, что украинские военные вторглись на территории Курской, Белгородской и Брянской областей. Также сообщается о всеобщей мобилизации, передает «Вести.
Для борьбы с таким новым способом эксперт посоветовал предавать его большей огласке, а также не записывать длинных сообщений, а лучше даже удалять их после прослушивания собеседником. Киберпреступники часто атакуют не только в период новогодних каникул, но и после их окончания. Директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда» Павел Кузнецов рассказал о самых опасных кибератаках в первую неделю нового года. Сотрудники правоохранительных органов составили топ фраз, которые чаще всего применяют телефонные мошенники.
В 2019 году к тексту рассылки об аудиозаписи добавили сообщение, которым пользуются мошенники для того, чтобы вынудить пользователя открыть ссылку с неким изображением. Якобы при переходе в телефон проникал вирус, который открывал посторонним данные о банковских счетах. Но это все не более чем очередные домыслы.
Таким образом, рассылка с предупреждением о том, чтобы пользователи не скачивали на смартфоны аудиосообщение с названием «Разговор Путина и Кадырова» не более чем фейк. Возможность заражения гаджета через фото или аудиофайл невозможна.
Кибермошенники используют ИИ для генерирования голосовых в WhatsApp
В некоторых регионах России как минимум, в Ростовской, Воронежской и Белгородской областях в эфире звучало фейковое обращение Путина. В нем голосом российского президента сообщалось, что в 4 утра украинские войска вторглись на территорию Белгородской, Брянской и Курской областей. В этих регионах якобы введено военное положение, а президент вскоре подпишет указ о всеобщей мобилизации. Враг будет разбит, победа будет за нами", — прозвучало в эфире.
Как не стать их жертвой? Примечательно, что образцы чужих голосов к ним попадают вполне легальным путем, к которому с точки зрения закона практически невозможно предъявить претензий. Вместе с юристами мы разбираемся, как россиянам обезопасить себя от новой мошеннической схемы и что делать, если вы все же стали жертвой.
Как мошенники научились подделывать голос с помощью нейросети? Новая схема опасна тем, что она не выглядит как обман и работает абсолютно легально. Мошенники размещают объявления о поиске людей для озвучки рекламных роликов или даже фрагментов фильмов или сериалов. За эту работу, разумеется, предусмотрена оплата, которую, как правило, люди действительно получают — именно поэтому никаких подозрений подобные схемы не вызывают. Проблемы начинаются уже после отправки голосовой записи и получения оплаты за нее. Злоумышленники используют полученные образцы голосов для обучения нейросетей, которые впоследствии генерируют голосовые сообщения, которые практически невозможно отличить от настоящих.
Их они рассылают знакомым и близким жертвы, выманивая деньги под разными предлогами. Как мошенники записывают голоса других людей? Это не единственная преступная схема с использованием голосовых записей жертвы для кражи денег у его знакомых. Еще в январе пользователи Telegram столкнулись с похожим, но чуть более примитивным алгоритмом обмана. Мошенники получали доступ к аккаунту пользователя, просматривали историю переписок, чтобы максимально скопировать манеру общения реального человека, и отправляли людям из списка контактов сообщения с просьбой перевести деньги.
В то же время рискуют и родственники публичных людей, поскольку образцы голосов звезд легче найти в открытом доступе, — поясняет Александр Самсонов. Например, у родителей действительно может быть непутевый сын, который попадает в плохие истории. За счет стресса и доверчивости различить тонкости в голосе непросто, — поясняет специалист. За борьбу с подделками решили взяться на государственном уровне Как отмечает Александров, сегодня круг потенциально успешных атак мошенников расширяется за счет того, что голос, имитированный ИИ, действительно стал похож на оригинал, и в зоне риска находятся люди, которые знают о подобных мошеннических атаках, но не в курсе применения современных технологий в сфере копирования голоса. Как не стать жертвой мошенника Для того чтобы создать голосовой дипфейк, имитирующий речь конкретного человека, злоумышленникам нужны образцы его голоса. Как говорит главный эксперт «Лаборатории Касперского» Сергей Голованов, при наличии нескольких образцов голоса мошенники могут с помощью нейросети создать аудиозапись с необходимым им содержанием. Однако в режиме реального времени создавать подобную запись не получится, — рассказывает эксперт. Образцы голоса потенциальной жертвы для создания дипфейков злоумышленники могут добывать разными путями. Как отмечает Александр Самсонов, мошенникам помогают публичные аудио- и видеозаписи в соцсетях, а также утечки биометрических данных. Кроме того, они могут просто позвонить человеку по телефону и записать его голос на диктофон. Поэтому, чтобы защититься от них, очень важно беречь личную голосовую информацию.
В сообщении она утверждала, что скоро Нижнекамск будет закрыт на карантин из-за коронавируса. Спустя время она узнала, что сообщение разлетелось по разным чатам. Тогда она сообщила знакомым, что это неправда, и пришла в нижнекамскую телерадиокомпанию, чтобы опровергнуть фейковую новость.
Зачем мошенники копируют ваши голосовые сообщения из мессенджеров
Новый телеграм-бот зачитывает любой бред в стиле срочных новостей - Афиша Daily | Вкрадчивый и хорошо поставленный голос озвучил сразу несколько фейков о спецоперации по демилитаризации и денацификации Украины. |
Старый фейк о «прослушке» телефонных разговоров вновь распространяют в Сети - StopFake! | Голосовое сообщение члена комитета Госдумы по обороне, генерала Андрея Гурулева о якобы готовящейся атаке России на Казахстан было создано с помощью искусственного интеллекта. |
Поддельная функция голосовых сообщений WhatsApp распространяет инфостилер | голосовых сообщений с паникерскими откровениями от неизвестных и якобы осведомлённых людей. |
МВД: Мошенники крадут образцы голоса из аккаунтов в соцсетях
Все письма и голосовые сообщения о внезапном банкротстве, просьбы о срочном переводе денежных средств или предоставлении личной информации нужно дважды или трижды проверять через альтернативные источники. В мессенджерах распространяется голосовое сообщение, в котором неизвестный мужчина рассказывает о якобы скором введении комендантского часа в Тюменской области, перекрытии дорог и о том, что в регион стягивают военных. Затем мошенники скачивают сохраненные голосовые сообщения и с помощью сервисов искусственного интеллекта синтезируют новые «голосовушки» с необходимым контекстом, указал Егоров.