Голосовые дипфейки — это продукт искусственного интеллекта (ИИ), позволяющий создавать поддельные голоса, практически неотличимые от настоящих. Изначально эта технология создавалась для благих целей, например, для создания аудиокниг или помощи людям, потерявшим голос. Но, как и многие другие технологии, она может использоваться и в злонамеренных целях.
В последнее время в Беларуси наблюдается рост случаев мошенничества, связанных с использованием голосовых дипфейков. Злоумышленники подделывают голоса знакомых или родных людей с целью получения денег. Образец голоса получают в ходе телефонного разговора, а затем для достоверности исследуют личную информацию о жертвах в социальных сетях и других открытых источниках.
После этого они могут позвонить своей жертве, представившись родственни_цей, котор_ая якобы попал_а в беду и нуждается в деньгах. Такой обман имеет серьезные последствия, поскольку жертва, доверяя голосу, отправляет средства, не проверив информацию. Злоумышленники могут представиться не только родственни_цами, но и банковскими, медицинскими работни_цами, милиционер_ками.
Такие технологии могут быть использованы и для более масштабных преступлений, включая финансовые махинации, как это было зафиксировано в 2019 году в Великобритании, когда мошенники использовали синтетический голос для проведения крупных транзакций. В 2020 году аналогичное мошенничество произошло в Объединенных Арабских Эмиратах, когда голосом, имитирующим руководство банка, были проведены переводы на сумму $35 млн.
Как защитить себя от мошенников:
- Проверяйте информацию. Если вам позвонил кто-то, кто утверждает, что он_а ваш близк_ая родственни_ца и нуждается в помощи, не спешите верить. Прекратите разговор и перезвоните на номер родственни_цы, чтобы удостовериться, что с ним/ней все в порядке.
- Расскажите родственни_цам старшего возраста о мошенничестве. Люди старшего возраста особенно уязвимы перед мошенниками. Расскажите им о возможности голосовых подделок и научите, как правильно действовать в случае сомнительных звонков.
- Будьте осторожны в социальных сетях. Мошенники часто используют информацию, размещенную в социальных сетях, чтобы создать более правдоподобный сценарий. Не раскрывайте личные данные и избегайте публикации информации, которая может быть использована против вас.
- Используйте защитные технологии. Установите на своем устройстве антивирусное ПО и системы защиты от фишинга, которые помогут избежать попадания в ловушку мошенников.
На нашем канале можно посмотреть образовательный мультфильм на эту тему и разослать его всем своим родственникам.
Почему голосовые дипфейки — это не только угроза, но и будущее технологий
Технологии синтетического голоса, в частности, дипфейк, активно используются не только мошенниками. Применение таких технологий открывает множество новых возможностей, таких как:
- Создание контента: синтетические голоса могут быть использованы для озвучивания прогноза погоды, новостей или спортивных репортажей.
- Перевод контента: технологии позволяют переводить аудиоконтент, например, подкасты, на разные языки, обеспечивая широкий доступ к информации.
- Воссоздание исторических голосов: синтезированные голоса могут быть использованы для создания документальных материалов или развлекательных проектов.
Эти технологии находят применение в таких областях, как образование, здравоохранение и медиа, помогая создать новый уровень доступности и разнообразия контента. Но, с развитием этих технологий возрастает и риск их использования в злонамеренных целях. Важно быть в курсе рисков и предпринимать необходимые шаги для защиты от мошенников.