Введите верный e-mail адрес
Подписаться
Вы успешно подписались на нашу рассылку

Обнаружения дипфейков в режиме реального времени: как это работает

Human Constanta
14 ноября 2024 Года

Сегодня дипфейки, созданные искусственным интеллектом (ИИ), стали серьёзной проблемой для безопасности и доверия в цифровом пространстве. Они позволяют создавать гиперреалистичные видео и аудиозаписи, которые имитируют известных личностей и могут вводить в заблуждение миллионы людей. Чтобы противостоять этой угрозе, исследовател_ницы Нью-Йоркского университета Тандон разработали уникальную систему обнаружения дипфейков в режиме реального времени — и она может стать важной вехой в борьбе с киберугрозами.

Дипфейки, правдоподобные подделки, представляют риск в самых разных областях, от политики до соцсетей, финансов и гендерной проблематики. Только недавно произошёл случай, в котором дипфейк-видео использовали для мошенничества на сумму 25 миллионов долларов. (Об это мы рассказывали в отдельном материале).

Возможности таких фальсификаций постоянно растут, и это побудило инженер_ок Тандон разрабатывать системы, которые помогают выявлять и предотвращать их негативное влияние.

Метод «вызов-ответ»

Основу технологии, предложенной командой учёных под руководством доцента Чинмея Хегде, составляет принцип «вызов-ответ». Этот метод работает так: система задаёт участни_це взаимодействия особые вопросы или предлагает выполнять действия, которые на данный момент невозможно воссоздать в реальном времени даже самыми совершенными алгоритмами дипфейков.

Например, система может запросить быстрый жест рукой перед лицом или резкое изменение мимики. Это лёгкие задачи для человека, но для ИИ они представляют трудности и часто приводят к сбоям в генерации изображения.

Исследовател_ницы протестировали метод на базе данных из 56 247 видеороликов с участием 47 человек. Люди достигли точности обнаружения в 89%, а ИИ-модели — около 73%, что демонстрирует потенциал системы для защиты от поддельных видео.

Насколько эффективен метод в аудио

Помимо видео, учёные также разработали аналогичный подход для аудио. В аудиозаписях участни_ц просили прошептать определённые фразы, говорить с необычным тоном или использовать фоновый шум. Эти условия оказались чрезвычайно сложными для поддельных записей, что позволило системе с высокой точностью отличить дипфейки от настоящих записей.

В исследовании приняли участие 100 человек, а всего было обработано более 1,6 миллиона аудиофайлов. Совместный подход человека и ИИ продемонстрировал точность обнаружения на уровне 83%, что на порядок выше, чем при использовании только одного человека или одной ИИ-модели.

Принцип системы прост и эффективен: задачи выполняются всего за несколько секунд и не нарушают естественность общения. Как поясняет Хегде, задачи можно комбинировать и изменять, что делает метод более надёжным. Такой подход позволяет в реальном времени отличать подлинные видео и аудиозаписи от подделок, что значительно повышает безопасность общения в цифровом пространстве.

Впереди — дальнейшие усовершенствования

В будущем исследовател_ницы планируют улучшить методику. «Цель нашего подхода — создать надёжные инструменты для людей, чтобы проверять собеседни_ц и оставаться уверенными в их подлинности», — говорит Хегде. Учитывая быстрое развитие технологий дипфейков, такие системы станут незаменимым инструментом для повышения цифровой безопасности и восстановления доверия к онлайн-коммуникациям.

Эта разработка представляет собой значительный шаг вперёд в борьбе с дипфейками. В условиях, когда мошенники активно используют технологии для обмана, решения на базе ИИ и гибкие методы обнаружения становятся важными для защиты пользовател_ниц и укрепления цифровой безопасности.

ПОХОЖИЕ НОВОСТИ
Лаборатория цифровых свобод

Голосовые дипфейки: новые возможности или новые риски?

Как и в случае с любыми передовыми технологиями, эта инновация несет в себе не только плюсы, но и значительную угрозу.
Лаборатория цифровых свобод

Готовы ли крупные социальные сети к дипфейкам и другой дезинформации, создаваемой с помощью ИИ накануне выборов

В 2024 году в более, чем 50 странах мира пройдут президентские или парламентские выборы. Это год-рекордсмен по их числу. Эксперт_ки опасаются, что крупнейшие социальные сети не готовы бороться с дезинформацией.
Лаборатория цифровых свобод

Дивиденды лжеца: как дипфейки подрывают доверие общества к информации

Разграничить правду и вымысел становится все сложнее.

Для мошенничества в цифровой среде всё чаще используются дипфейки

Мошенничество с использованием дипфейков становится всё более серьёзной угрозой в современном цифровом пространстве.

Долгосрочные перспективы воздействия дипфейков на людей

Как люди реагируют на дипфейки, насколько они способны отличать поддельные видео от настоящих, и какие долгосрочные последствия может иметь воздействие подобных технологий?