Новости мошенники подделывают голос

«Атаковали даже мэра Марченко»: мошенники подделывают голоса и лица жителей Волгограда с помощью нейросетей.

Биометрия в банках

  • Московские новости
  • Каждый четвертый похищенный мошенниками рубль оказался заемным
  • Регистрация
  • ЦБ: Мошенники начали подделывать голоса родных и знакомых россиян — Большой город
  • Телефонные мошенники стали подделывать номера и голоса родственников

Мошенники начали использовать поддельные голоса родственников жертв

Раньше была нужна коммуникация между человеком и мошенником, но сейчас часть запросов может быть получена автоматически. Даже начинающие злоумышленники могут представлять угрозу за счет получения компетенции от языковых моделей. Специалисты по кибербезопасности предупреждают — нейросети уже используют для обмана пользователей Источник: Полина Авдошина Искусственный интеллект дает неограниченные возможности злоумышленникам создавать новые способы наживы над простым интернет-пользователем. И аферисты по максимуму экспериментируют с технологическими разработками. Используются они и для создания вредоносных ПО, — утверждает эксперт в области интернет-безопасности. Каждый месяц появляются новые и становятся всё более распространены и позиционируются как аналоги ChatGPT, но сразу со снятыми ограничениями. Угроза чат-ботов заключается в их способности генерирования фишинговых сообщений и разработке вредоносных ПО и задач.

Какие еще инструменты нейросетей можно использовать для зловредных целей, подробнее рассказал руководитель группы исследований и разработки технологий машинного обучения «Лаборатории Касперского» Владислав Тушканов. Например, для завлечения человека нажать на какую-то ссылку, чтобы тот скачал вредоносный файл и так далее. Под удар попал даже мэр Марченко Искусство создания дипфейковых видео изучили не только мошенники, но и авторы волгоградских телеграм-каналов. Не так давно широкое распространение в сети получили несколько сгенерированных видео с использованием лица мэра Волгограда Владимира Марченко, в которых он предстает в образах героев известных фильмов и рэперов. В следующем — играет роль Уильяма Уоллеса в известном фильме «Храброе сердце». Накануне в канале показали Владимира Марченко в роли крестного отца.

Стоит отметить, что лицо чиновника отлично вписывается в образы персонажей, а сами видео выполнены далеко не в худшем качестве. Свое мнение по поводу сгенерированного видео с использованием лица главы города высказал анонимный источник из мэрии Волгограда. То, что сделано с лицом Владимира Марченко, можно отнести скорее ко второму направлению, — говорит сотрудник администрации города. И если рассматривать это как элемент искусства, то для выбора кандидатуры в этих целях необходимо для фактора: узнаваемость героя, чье лицо применяется в дипфейке, и достаточное количество разных изображений для того, чтобы искусственный интеллект смог с ними работать. Собеседник редакции уверен, что выбор Владимира Марченко для создания таких видео, объясняется его узнаваемостью и популярностью среди жителей Волгограда и пользователей соцсетей. Однако отдельные волгоградцы в комментариях под публикацией этих дипфейков неоднократно писали о том, что не знают человека, чье лицо использовано в видео.

И получая ответ на вопрос о герое дипфейка, искренне радовались, ведь наконец узнали, как выглядит глава Волгограда. И ни горожанам, ни представителям властей не стоит беспокоиться, когда подобный контент несет лишь положительный характер. Героем подобного дипфейка развлекательного формата стал и бывший глава Тракторозаводского района, политолог, историк и знаменитый полемист Михаил Серенко. На опубликованных в телеграм-канале правозащитника и активиста Алексея Ульянова видео политолог якобы поет известные хиты.

Ранее сообщалось, что новым "помощником" хакеров стал искусственный интеллект ИИ.

С его помощью мошенники начали создавать аудиосообщения и вымогать средства. Преступная схема следующая: сначала злоумышленник взламывает аккаунт пользователя в Telegram или WhatsApp принадлежит корпорации Meta, которая признана экстремистской и запрещена в России и скачивает оттуда голосовые сообщения. Затем нейросеть, используя полученные данные, создает новые сообщения, с помощью которых мошенник вымогает деньги. Искусственному интеллекту достаточно и трех секунд речи оригинального носителя для того, чтобы дипфейк получился убедительным.

Но главное: голос нейросети все равно звучит немного механически. Понять это можно, только если вслушаться. Вот только мошенники часто берут жертв на испуг — имитируют ситуации, когда деньги нужны срочно.

Запись голоса они могут получить даже у самого осторожного человека, просто позвонив по телефону с каким-нибудь опросом. Вполне возможно, совсем скоро голос робота в трубке, предупреждающий, что ваш разговор может быть записан, заставит быстро закончить беседу. Все зависит от уровня защищенности инфраструктуры конкретной компании. Которая занимается записью переговоров", — подчеркнул директор по информационной безопасности компании по защите веб-приложений Лев Палей. Специалисты не исключают: в будущем записи разговоров с клиентами аферисты будут продавать. Так же, как сейчас они торгуют базами телефонов. И тогда дипфейки, основанные на подделке голоса, могут стать грозным оружием.

Даже статистически получается так, что 95 процентов звонков — это мошенники. Поэтому не стоит как-то из-за этого сильно переживать, а просто сбросить телефонный звонок и перезвонить в ту организацию, сотрудником которой представлялся звонящий. Если это правоохранительные органы, то нужно звонить в полицию", — разъяснил собеседник Москвы 24. Также эксперт предостерег от активного общения с мошенниками и их разоблачения. Даже знакомый с преступными схемами человек может попасться на удочку, уверен Ульянов. Мошенники — люди достаточно опытные, скорее всего, они обзвонили не одну тысячу потенциальных жертв, простыми вопросами их не ошарашишь. Обычно у них есть четкие легенды, и они точно знают, что ответить. Более того, истории готовятся другими людьми, которые более опытны в этих вещах, — чаще всего психологами. Владимир Ульянов руководитель аналитического центра Zecurion Эксперт в области информационной безопасности Александр Власов в разговоре с Москвой 24 посоветовал получше следить за разговорами коллег и друзей, чтобы быстро узнавать их манеру голоса. Поэтому в таких случаях нужно следить за своими знакомыми и друзьями, чтобы понимать, какими они выражениями и словечками пользуются в разговоре", — пояснил он.

Фабрика дипфейков: как подделывают голоса

  • Биометрия в банках
  • Маскировка под родственника
  • Мошенник подделал голос друга и выманил 50 000 ₽
  • Нейросеть подделывает голоса ваших близких: как уберечься от новой мошеннической схемы | Финтолк
  • Можно ли распознать по голосу телефонного мошенника?
  • Почему сработал обман

Мошенники могут подделать чужой голос, чтобы украсть деньги

Эксперт Кузьменко: мошенники начали использовать нейросети и дипфейки для обмана россиян. Мошенники стали использовать для вымогательства денег созданные ИИ голосовые сообщения от имени владельца аккаунта в соцсетях или мессенджерах. Мошенники начали чаще подделывать голоса родных и знакомых тех, кому они звонят, сообщили в Центробанке. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента.

Мошенники с помощью искусственного интеллекта запугивают родителей голосами родных детей

Киберпреступники освоили технологию замены голоса для шантажа и мошенничества — эксперт В Атырау полицейские задержали мошенника, который с легкостью подделывал свой голос, сообщает
Мошенники начали использовать поддельные голоса родственников жертв Мошенники для обмана россиян стали подделывать голоса родных и знакомых жертвы.
Мошенники научились подделывать ваш голос: стоит ли опасаться 15 миллионов звонков в день совершали телефонные мошенники в России в апреле, почти в два раза больше чем в прошлом году.
Роскачество: мошенники научились подделывать голоса, чтобы красть деньги - В Кизеле пойман мошенник, забравший у пенсионерки 100 тысяч.
Мошенники начали использовать поддельные голоса родственников жертв Телефонные мошенники научились подделывать не только номера, но и голоса.

Мошенники научились подделывать голоса. Как не попасться на уловку

Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента. Голоса других людей злоумышленники имитируют при помощи специальных программ — этой уловкой они вынуждают потерпевших сообщать различные сведения или совершать денежные переводы. Проверить подлинность подделанного голоса или видео можно лишь технически, предупреждает Семенычев. В 2020 году мошенники клонировали голос директора банка в ОАЭ и использовали его для ограбления финучреждения.

Мошенники имитируют голос родственников с помощью искусственного интеллекта

Родителям же, чьи дети активно пользуются соцсетями и мессенджерами, рекомендуется владеть актуальной информацией о круге общения ребенка. Это необходимо, чтобы обезопасить детей от нежелательных контактов и предостеречь от передачи данных злоумышленникам. Но сценарий общения у мошенников всегда типичный. Эффективным и простым способом защитить себя от преступников в таком случае будет обращение к мобильному оператору. У них есть услуга, которая разрывает звонки с подозрительных номеров.

Многие из таких предложений публикуются мошенниками, при этом сами по себе такие объявления не нарушают закон, но записи голоса злоумышленники используют для обучения нейросетей и генерируют на их основе аудиосообщения, с помощью которых вымогают деньги у друзей и родственников жертвы, пишут «Ведомости» со ссылкой на исследовании компании по кибербезопасности Angara Security. Большая часть таких объявлений размещена в Telegram, но используются и другие популярные ресурсы. Такая запись голоса может требоваться мошенникам, поскольку качество записи телефонного разговора недостаточно для обучения нейросетей, говорит бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий: — Я не сталкивался пока с такого рода предложениями и историями, но допускаю, что мошенники тестируют разные гипотезы и выбирают из них потом наиболее эффективные. У технологии машинного обучения есть особенность: им на вход надо подавать голос совершенно различный, записанный в разных ситуациях, с разным качеством, для того чтобы синтезированный голос потом был действительно похож на настоящий.

И поэтому запись именно таким образом, возможно иногда даже и студийного качества, позволяет синтезировать мошенникам голос, похожий на настоящий. Тут использовать более сложные вещи с записью голоса не требуется, но поскольку в нашей стране достаточно активно внедряется Единая биометрическая система и на биометрию переходят многие коммерческие организации, как минимум финансовые, то мошенники просто готовятся к новому витку своей деятельности. Рассылки голосовых сообщений мошенники в России используют не очень часто, говорит директор технического департамента RTM Group, эксперт в области информационной безопасности и компьютерной криминалистики Федор Музалевский: — При записи телефонного разговора качество записи ограничено восемью килогерцами, что не всегда достаточно для корректного обучения тех же нейросетей. Помимо этого, длительность разговора будет заметно меньше, и она потребует вовлеченности злоумышленника, то есть будет отрывать его от производства. Плюс у нас в стране достаточно скептическое отношение к голосовым сообщениям. У нас некоторое время назад, может быть, месяц, были случаи, когда в корпоративной рассылке использовались голосовые сообщения, но это очень редко встречается, поэтому эффективность практически нулевая.

Вместе с юристами мы разбираемся, как россиянам обезопасить себя от новой мошеннической схемы и что делать, если вы все же стали жертвой.

Как мошенники научились подделывать голос с помощью нейросети? Новая схема опасна тем, что она не выглядит как обман и работает абсолютно легально. Мошенники размещают объявления о поиске людей для озвучки рекламных роликов или даже фрагментов фильмов или сериалов. За эту работу, разумеется, предусмотрена оплата, которую, как правило, люди действительно получают — именно поэтому никаких подозрений подобные схемы не вызывают. Проблемы начинаются уже после отправки голосовой записи и получения оплаты за нее. Злоумышленники используют полученные образцы голосов для обучения нейросетей, которые впоследствии генерируют голосовые сообщения, которые практически невозможно отличить от настоящих. Их они рассылают знакомым и близким жертвы, выманивая деньги под разными предлогами.

Как мошенники записывают голоса других людей? Это не единственная преступная схема с использованием голосовых записей жертвы для кражи денег у его знакомых. Еще в январе пользователи Telegram столкнулись с похожим, но чуть более примитивным алгоритмом обмана. Мошенники получали доступ к аккаунту пользователя, просматривали историю переписок, чтобы максимально скопировать манеру общения реального человека, и отправляли людям из списка контактов сообщения с просьбой перевести деньги. Для убедительности после нескольких текстовых сообщений они присылали голосовое, которое или было сгенерировано с помощью искусственного интеллекта, или смонтировано из фрагментов старых аудиосообщений из переписок. Как защитить свой голос от мошенников?

Эту историю удалось рассказать благодаря поддержке читателей. Даже самое небольшое ежемесячное пожертвование помогает работать редакции и создавать важные материалы для людей. Сейчас ваша помощь нужна как никогда.

Полицейские показали, как мошенники подделывают свой голос

Клонирование голоса Мошенничество с клонированием голоса появилось относительно недавно и уже встречается в западных странах. Комментарии из Instagram компании Meta, признанной в России запрещенной экстремистской организацией. Первые отчеты о применении технологии ИИ в схемах обмана по телефону западные эксперты начали получать с 2022 года. Справочно: Правильнее будет говорить не про искусственный интеллект, а именно про нейросеть с машинным обучением на основе искусственного интеллекта.

Технологические прорывы в сфере ИИ еще впереди. Чтобы машина получила полноправное звание искусственного интеллекта, она должна пройти самостоятельно, как минимум, тест Тьюринга. Благодаря имеющимся уже технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека.

Идентичность поражает настолько, что даже мать не сможет отличить голос своего ребенка от робота. Схема обмана та же, но инструменты более прогрессивные.

Следователь сказал, что девочка в машине при аварии из-за меня пострадала и на ее лечение нужно полтора миллиона рублей. Тут я наконец-то с усилием включил мозг и понял, что меня откровенно разводят. Я положил трубку. И попытался представить, что у дочки сейчас на самом деле все в порядке и стал названивать ей на мобильный. А вот тут меня накрыла уже вторая волна липкого ужаса. В трубке автомат ответил, что абонент отключен или находится вне зоны действия сети. Я тут же отчетливо увидел на черно-красном от крови асфальте раздавленный мобильник. Затем дочку на операционном столе и уже стал сомневаться, что это был розыгрыш.

В этот момент вновь позвонил тот самый, незнакомый номер и плачущая девочка с голосом моей дочери начала вновь рассказывать ту же историю с самого начала. Причем слово в слово. Если по второму кругу включили ту же шарманку, значит это не просто мошенники с голосом моего ребенка. Нормальные, пусть даже и преступники, люди, сообразили бы, что раз я бросил трубку, значит я их раскусил. И второй раз звонить бы уже не стали. Робот, с точной копией голоса моего ребенка. На этот раз раздался третий звонок.

Спустя несколько минут выяснилось, что ребёнок жив, здоров и невредим, и что никакого похищения не было. Полиция в итоге отказалась возбуждать дело, посчитав звонок пранком. Самой же матери это стоило тяжёлого нервного срыва.

Та с паническими интонациями крикнула, что она «напортачила», после чего ДеСтефано услышала её плач, а затем раздался угрожающий мужской голос, заявивший, что девочка у него. Мошенники с использованием клонированного голоса заявили Дженнифер ДеСтефано справа , что похитили ее дочь Брианну слева Для пущей убедительности матери дали послушать голос дочери, умолявшей о помощи, после чего дали инструкции, куда приехать с выкупом, предупредив, что если денег не окажется, умрут и мать, и дочь. Требования матери дать ей возможность поговорить с дочерью злоумышленники проигнорировали. Дженнифер ДеСтефано в это время планировала забрать свою младшую дочь Обри из танцевальной студии, где у той только что закончились занятия. В приступе ужаса и паники она бросилась внутрь, трясясь и умоляя кого-нибудь помочь. Никакого похищения не было Мать другого ребёнка набрала 911 и попыталась объяснить, что происходит.

Если мошенники подошли к вопросу серьезно, то идентифицировать их можно будет только по нехарактерному для ваших родственников поведению.

Номер можно подменить - на смартфоне он будет определяться как знакомый. Также мошенники могут создать похожий аккаунт мессенджера", - сказал Пермяков, отметив, что пока злоумышленники чаще всего ограничиваются подделкой голоса. Кража голосов Программы, с помощью которых можно синтезировать голос выбранного человека, уже широко распространены, предупредил эксперт. При этом все большую роль в этой сфере начинают играть нейросети - в ближайшее время с их помощью можно будет подделать внешность человека, что снизит доверие пользователей к видеозвонкам, считает он.

Мошенник обманывал людей, подделывая голоса близких по телефону

Это касается и голоса. Как рассказал изготовитель дипфейков, украсть голос можно не только у знаменитости, а вообще у любого человека. В телефонном разговоре, если вам звонят с незнакомого номера, постарайтесь по максимуму выяснить, что это за люди, не мошенники ли они, и максимально скоро прервите эту беседу. Чем больше слов вы успеете наговорить, тем больше речи они могут в теории у вас украсть. И воспользоваться уже в своих целях. Также у мошенников есть и другое оружие: полная информация о потенциальной жертве. Как отпечатки на песке, человек всюду оставляет свои цифровые следы.

Сотрудник одной финансовой компании получил якобы от руководителя сообщение, в котором была просьба перевести крупную сумму со счета организации. Эта просьба смутила жертву, но чтобы развеять сомнения, мошенники пригласили его на видеоконференцию, в которой принимали участие и другие сотрудники компании.

Но все они, кроме жертвы, использовали технологию подмены голоса и видео. Компания из-за этого обмана потеряла 25,6 млн долларов. Топ 3 дебетовых карт Откуда у мошенников образцы голосов и изображения людей Подменные видео и аудио мошенники получают с помощью нейросетей. Однако для их обучения требуются образцы голосов и изображения людей — чем больше, тем качественнее получится подмена. Мошенники берут всю информацию из открытых источников — в первую очередь, из соцсетей. Например, в случае с гонконгской компанией сотрудники, именами которых воспользовались мошенники, активно вели свои страницы — выкладывали видеолекции со своим участием и личные фотографии. Как распознать подмену Распознать подмену голоса или видео на современном этапе сложно, но возможно. Руководитель департамента информационной безопасности Банки.

У человека, который использует подменное видео, бывают аномалии в движениях: например, неестественная мимика. Также заметны несоответствия в фоне или свете.

Деньги за него обещают вернуть и, разумеется, с надбавкой за работу. Дальше на выбор просят или перевести деньги за товар «продавцу» или же перейти на фишинговый сайт, который имитирует маркетплейс, оставить там свои данные карты и лишиться денег на ней QR-коды Достаточно новый способ мошенничества связан с подсовыванием жертвы QR-кода, переход по которому ведет на фишинговый сайт, неотличимый от настоящего. Там уже всё как обычно — оставляете данные карты и с неё всё списывают.

Как избежать мошенничества? Разговор Разумеется, важно сохранять контроль над собой и своими действиями в первые минуты общения со звонящим. Если человек представляется сотрудником органов или банка, не стесняйтесь перезвонить в эту организацию — это как раз то, что вас настоятельно попросят не делать. Настораживает, не так ли? Сами же не стесняйтесь как можно чаще обсуждать все такие случаи со своими родственниками, особенно пенсионерами, которые чаще всего и становятся жертвами.

Оплата Если ваш банк позволяет завести виртуальную карту, то лучше завезти отдельную для каждого маркетплейса и пополнять её на стоимость покупки. Это настолько же легко, насколько и безопасно. Если ваш аккаунт будет взломан, если вы где-то засветите данные карты, то списать с неё будет нечего. Также поможет выставить в настройках запрос кода на покупку. Разумеется, перед тем как что-либо оплатить, обратите внимание на адрес сайта.

Он должен совпадать с известным вам адресом магазина, без замены «о» на 0 и подобного, без неожиданных тире и подчёркиваний. О других способах обмана телефонными мошенниками можно узнать тут. Больше интересных статей можно увидеть ниже в блоке «об авторе». А вы уже сталкивались с мошенниками в 2024 году? Автор не входит в состав редакции iXBT.

Можно воспользоваться услугой защиты от спама и мошенников от операторов мобильной связи; - Помните, подделку голоса можно отличить по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться. Но главное: голос нейросети звучит немного механически и безэмоционально; - Спросите у звонящего какой-то факт, который должен быть известен только вам и ему.

Сергей Кузьменко, руководитель Центра цифровой экспертизы Роскачества: «Схемы мошенничества остаются неизменными, однако использование современных технологий во многом развязывает руки злоумышленникам, что позволяет им старые успешные схемы подавать под новым углом. В наше время каждый, у кого есть смартфон и любая сумма денег на счету, становится потенциальной жертвой аферистов. Важно провести беседу с близкими и установить некую кодовую фразу, чтобы быть уверенным, что входящие звонки не являются мошенническими.

Основное правило — не паниковать и не торопиться. Не стоит вестись на манипуляции мошенников и отправлять деньги на незнакомый счет. Для начала свяжитесь со своими родственниками или знакомыми, чтобы проверить информацию о предполагаемой тревожной просьбе».

Эксперты Центра цифровой экспертизы Роскачества отмечают, что в скором времени на смену аудиозвонкам, сгенерированным нейросетью, придут видеозвонки DeepFake. Примеры подобных мошеннических схем уже существуют, но пока они не получили широкого распространения. Все потому, что технология DeepFake еще недостаточно совершенна, и даже простой интернет-пользователь легко отличит поддельное видео от настоящего.

К тому же, киберэксперты не исключают, что в будущем записи разговоров с клиентами аферисты будут продавать.

Эксперт предупредил, что мошенники могут подделывать голоса родственников жертв

Мошенники научились подделывать голоса и видео. Как распознать подмену Мошенники научились подделывать человеческий голос для более эффективного вымогательства.
Как работает новая схема мошенничества с подделкой голоса Также развивается технология deepfake: преступники подделывают голос близких людей жертв.
Роскачество предупредило о новой мошеннической схеме с использованием искусственного интеллекта злоумышленники подделывают голос с помощью технологии дипфейка и одновременно подменяют номер.
В Роскачестве дали советы, как защитить свои биометрические данные от мошенников Мошенники начали подделывать голоса россиян с помощью искусственного интеллекта. Об этом сообщает РИА Новости со ссылкой на данные Центробанка.
Эксперт рассказал, как распознать в телефонном собеседнике мошенника «Я сам сталкивался с тем, что мне звонили мошенники и включали синтез голоса моего ребёнка.

Мошенники научились подделывать голоса. Как не попасться на уловку

Кроме того, мошенники могут менять голос, имитируя близких людей. Чтобы подделать чей-то голос, мошенникам достаточно использовать недорогой онлайн-инструмент на базе искусственного интеллекта, который анализирует уникальные особенности голоса любого человека и воспроизводит его с учетом пола, возраста и даже акцента. Подделывать голоса мошенники могли задолго до появления нейросети.

Мошенники могут подделать чужой голос, чтобы украсть деньги

Мошенники могут использовать эту технологию для создания видео, в котором, например, CEO компании якобы призывает к переводу средств на определенный счет. Такая технология применяется сегодня и для создания компрометирующего материала для шантажа, — говорит он. Мошенники также используют голосовой фишинг, они имитируют голос конкретного человека родственника или коллеги. Они просят перевести деньги таким способом или сообщить код из СМС.

Например, сообщают, что случилась беда и нужно передать деньги курьеру, который сейчас приедет, рассказала Финтолку эксперт по банкротству компании «Финансово-правовой альянс» Евгения Боднар. И здесь, к сожалению, нередки случаи, когда пострадавший самостоятельно оформляет заем и переводит средства, следуя указаниям мошенников. Конечно, чаще всего, на эту удочку попадаются пожилые люди», — сообщила эксперт. Топ-5 схем обмана на «Авито»: помогаем обмануть мошенников Реальный кредит при фейковом голосе Оформить ссуду с помощью подделки голоса мошенники, скорее всего, не могут, утверждает юрист Евгения Боднар. Все дело в том, что банки не оформляют кредит только по одному звонку: необходимо пройти аутентификацию например, назвать секретное слово или код из СМС.

Однако если аферисты смогли получить доступ к телефону и, например, мобильному банкингу, то оформить кредит на жертву — дело техники. Но даже если дело доходит до суда, увы, он не всегда встает на сторону жертв мошенничества, ведь фактически все действия люди выполняли сами. В таком случае придется возвращать займ, иначе долг вырастет, банк начислит проценты и пени, а потом вовсе передаст долг коллекторам. Чтобы законно не платить кредит, взятый из-за мошенников, придется пройти процедуру банкротства», — резюмирует Боднар. Как обезопасить себя от мошеннического ИИ Если вам пишет знакомый и даже присылает голосовые сообщения с просьбой одолжить денег, то просто позвоните ему по обычному телефону. Если человек в голосовых сообщениях говорит, что ему «ни в коем случае не надо звонить», точно лучше перепроверить: вашему приятелю не составит труда бросить трубку, если он действительно занят, советует соруководитель практики защиты прав инвесторов компании «Интерцессия» Анастасия Чумак.

Там он увидел и якобы финансового директора компании, и других сотрудников. После этого он сделал запрос в штаб-квартиру компании и понял, что был обманут. Во время видеозвонка его участники практически не общались с сотрудником, а по большей части давали ему указания. В какой-то момент встреча внезапно завершилась, но и это не смутило работника. После этого мошенники поддерживали связь с жертвой через платформы обмена мгновенными сообщениями, электронную почту и видеозвонки один на один. В полиции сообщили, что в общей сложности они обратились к двум или трём сотрудникам компании.

Последнее, впрочем, упирается в доступную вычислительную мощность и при наличии некоторого количества видеокарт можно будет убедительно изменить свою внешность в хорошем разрешении и в режиме реального времени. Перезвони Итак, вам позвонил кто-то из друзей и родственников и заявил, что ему срочно нужны деньги. Первым делом необходимо позвонить на номер этого человека. Одно дело подделать номер для исходящего звонка, другое дело для входящего. В идеале, стоит совершить видеозвонок на случай того, что технические возможности мошенников ограничены только подделкой голоса. Если же есть сомнения даже во время видеозвонка, то стоит спросить собеседника о чём-то, что известно только ему. Желательно что-то крайне каверзное, что не мелькало в переписке вполне возможно, что через какое-то время можно будет натравить нейросети и на неё тоже при взломе — скорее всего, этого будет достаточно, чтобы понять с кем разговариваешь. Зеркало — друг Еще один способ — попросить собеседника подойти к зеркалу. Нейросеть сможет заменить лицо, но крайне маловероятно, что нейросеть с такой же лёгкостью сможет обсчитать отражение в зеркале. Последнее, кстати, стоит придумать и для малолетних детей на случай «можешь со мной пройти, там твой папа попросил забрать тебя со школы, он за углом ждёт, я видел у него сюрприз — мороженное купил, но тсссс, я про это не говорил, ладно? Включение такого слова в каком-то виде будет той самой капчей, которую мошенник пройти не сможет. К слову, на случай беды можно добавить другое кодовое слово, которое подскажет вам что «у меня всё хорошо, как сыр в масле катаюсь» означает «на самом деле я в беде» кодовое слово тут «сыр» Ну и как обычно Стоит рассказать родным, особенно пожилым, о новом способе обмана и проговорить как действовать в случае неожиданного звонка. В первые секунды паники здравый смысл может отключиться и это самое плодотворное время для мошенника. Если встретить такой звонок наготове, зная какие вопросы нужно задавать и что услышать в ответ, то можно не лишиться своих кровных. Маркетплейсы Ваш заказ отменён Вы решаете что пора, к примеру, купить новый ноутбук. Находите нужный на маркетплейсе, делаете заказ. Неожиданно, заказ отменяется. Печаль… Дальше вы получаете сообщение от продавца, которое сулит какой-то один из трёх вариантов развития событий «Извините, с маркетплейсом накладка вышла, давайте мы вам напрямую отправим из нашего магазина?

Похожие новости:

Оцените статью
Добавить комментарий