Connect with us

Business

Мошенники начали использовать голоса своих жертв, чтобы вымогать деньги

Published

on

Мошенники начали использовать голоса своих жертв, чтобы вымогать деньги

Преступники взяли на вооружение искусственный интеллект (ИИ) и начали генерировать голоса своих жертв, чтобы вымогать деньги у их знакомых. О новой мошеннической схеме читайте в материале NUR.KZ.

Мошенники часто используют взломанные аккаунты в социальных сетях и мессенджерах, чтобы через них обманывать людей и красть их деньги. Обычно они обходятся простыми сообщениями, которые рассылают контактам жертв с просьбой прислать деньги на указанную карту.

Однако с развитием искусственного интеллекта методы аферистов сильно усложнились. Как рассказали журналисты РБК, в России были зафиксированы случаи, когда мошенники с помощью ИИ генерировали голоса своих жертв и просили деньги уже с помощью аудиосообщений, разосланных их контактам.

Чтобы получить достоверный голос другого человека, злоумышленники взламывают его аккаунт в мессенджере, скачивают голосовые сообщения, загружают их в нейросеть, которая впоследствии реалистично воспроизводит голосом жертвы целые предложения.

Между тем жителям Казахстана, которые также активно пользуются мессенджерами и соцсетями, стоит сохранять бдительность и с подозрением относиться к сообщениям от знакомых с просьбой отправить деньги, даже если они голосовые.

Перед тем, как это сделать, лучше удостовериться, что это действительно знакомый контакт, которому необходима денежная помощь, например, позвонив ему и поговорив вживую.

Напомним, в 2023 году в стране было зарегистрировано 44,8 тыс. случаев мошенничества. Среди выявленных преступников были даже несовершеннолетние дети.

Источник: www.nur.kz

Continue Reading
Click to comment

Leave a Reply

Ваш адрес email не будет опубликован. Обязательные поля помечены *