Введите верный e-mail адрес
Подписаться
Вы успешно подписались на нашу рассылку

Как мошенники используют голосовые дипфейки в Беларуси

Human Constanta
15 ноября 2024 Года

Голосовые дипфейки — это продукт искусственного интеллекта (ИИ), позволяющий создавать поддельные голоса, практически неотличимые от настоящих. Изначально эта технология создавалась для благих целей, например, для создания аудиокниг или помощи людям, потерявшим голос. Но, как и многие другие технологии, она может использоваться и в злонамеренных целях.

В последнее время в Беларуси наблюдается рост случаев мошенничества, связанных с использованием голосовых дипфейков. Злоумышленники подделывают голоса знакомых или родных людей с целью получения денег. Образец голоса получают в ходе телефонного разговора, а затем для достоверности исследуют личную информацию о жертвах в социальных сетях и других открытых источниках.

После этого они могут позвонить своей жертве, представившись родственни_цей, котор_ая якобы попал_а в беду и нуждается в деньгах. Такой обман имеет серьезные последствия, поскольку жертва, доверяя голосу, отправляет средства, не проверив информацию. Злоумышленники могут представиться не только родственни_цами, но и банковскими, медицинскими работни_цами, милиционер_ками. 

Такие технологии могут быть использованы и для более масштабных преступлений, включая финансовые махинации, как это было зафиксировано в 2019 году в Великобритании, когда мошенники использовали синтетический голос для проведения крупных транзакций. В 2020 году аналогичное мошенничество произошло в Объединенных Арабских Эмиратах, когда голосом, имитирующим руководство банка, были проведены переводы на сумму $35 млн.

Как защитить себя от мошенников:

  1. Проверяйте информацию. Если вам позвонил кто-то, кто утверждает, что он_а ваш близк_ая родственни_ца и нуждается в помощи, не спешите верить. Прекратите разговор и перезвоните на номер родственни_цы, чтобы удостовериться, что с ним/ней все в порядке.
  2. Расскажите родственни_цам старшего возраста о мошенничестве. Люди старшего возраста особенно уязвимы перед мошенниками. Расскажите им о возможности голосовых подделок и научите, как правильно действовать в случае сомнительных звонков.
  3. Будьте осторожны в социальных сетях. Мошенники часто используют информацию, размещенную в социальных сетях, чтобы создать более правдоподобный сценарий. Не раскрывайте личные данные и избегайте публикации информации, которая может быть использована против вас.
  4. Используйте защитные технологии. Установите на своем устройстве антивирусное ПО и системы защиты от фишинга, которые помогут избежать попадания в ловушку мошенников.

На нашем канале можно посмотреть образовательный мультфильм на эту тему и разослать его всем своим родственникам.

Почему голосовые дипфейки — это не только угроза, но и будущее технологий

Технологии синтетического голоса, в частности, дипфейк, активно используются не только мошенниками. Применение таких технологий открывает множество новых возможностей, таких как:

  • Создание контента: синтетические голоса могут быть использованы для озвучивания прогноза погоды, новостей или спортивных репортажей.
  • Перевод контента: технологии позволяют переводить аудиоконтент, например, подкасты, на разные языки, обеспечивая широкий доступ к информации.
  • Воссоздание исторических голосов: синтезированные голоса могут быть использованы для создания документальных материалов или развлекательных проектов.

Эти технологии находят применение в таких областях, как образование, здравоохранение и медиа, помогая создать новый уровень доступности и разнообразия контента. Но, с развитием этих технологий возрастает и риск их использования в злонамеренных целях. Важно быть в курсе рисков и предпринимать необходимые шаги для защиты от мошенников.

ПОХОЖИЕ НОВОСТИ
Лаборатория цифровых свобод

Голосовые дипфейки: новые возможности или новые риски?

Как и в случае с любыми передовыми технологиями, эта инновация несет в себе не только плюсы, но и значительную угрозу.
Лаборатория цифровых свобод

Готовы ли крупные социальные сети к дипфейкам и другой дезинформации, создаваемой с помощью ИИ накануне выборов

В 2024 году в более, чем 50 странах мира пройдут президентские или парламентские выборы. Это год-рекордсмен по их числу. Эксперт_ки опасаются, что крупнейшие социальные сети не готовы бороться с дезинформацией.
Лаборатория цифровых свобод

Дивиденды лжеца: как дипфейки подрывают доверие общества к информации

Разграничить правду и вымысел становится все сложнее.

Для мошенничества в цифровой среде всё чаще используются дипфейки

Мошенничество с использованием дипфейков становится всё более серьёзной угрозой в современном цифровом пространстве.

Долгосрочные перспективы воздействия дипфейков на людей

Как люди реагируют на дипфейки, насколько они способны отличать поддельные видео от настоящих, и какие долгосрочные последствия может иметь воздействие подобных технологий?