Сегодня дипфейки, созданные искусственным интеллектом (ИИ), стали серьёзной проблемой для безопасности и доверия в цифровом пространстве. Они позволяют создавать гиперреалистичные видео и аудиозаписи, которые имитируют известных личностей и могут вводить в заблуждение миллионы людей. Чтобы противостоять этой угрозе, исследовател_ницы Нью-Йоркского университета Тандон разработали уникальную систему обнаружения дипфейков в режиме реального времени — и она может стать важной вехой в борьбе с киберугрозами.
Дипфейки, правдоподобные подделки, представляют риск в самых разных областях, от политики до соцсетей, финансов и гендерной проблематики. Только недавно произошёл случай, в котором дипфейк-видео использовали для мошенничества на сумму 25 миллионов долларов. (Об это мы рассказывали в отдельном материале).
Возможности таких фальсификаций постоянно растут, и это побудило инженер_ок Тандон разрабатывать системы, которые помогают выявлять и предотвращать их негативное влияние.
Метод «вызов-ответ»
Основу технологии, предложенной командой учёных под руководством доцента Чинмея Хегде, составляет принцип «вызов-ответ». Этот метод работает так: система задаёт участни_це взаимодействия особые вопросы или предлагает выполнять действия, которые на данный момент невозможно воссоздать в реальном времени даже самыми совершенными алгоритмами дипфейков.

Например, система может запросить быстрый жест рукой перед лицом или резкое изменение мимики. Это лёгкие задачи для человека, но для ИИ они представляют трудности и часто приводят к сбоям в генерации изображения.
Исследовател_ницы протестировали метод на базе данных из 56 247 видеороликов с участием 47 человек. Люди достигли точности обнаружения в 89%, а ИИ-модели — около 73%, что демонстрирует потенциал системы для защиты от поддельных видео.
Насколько эффективен метод в аудио
Помимо видео, учёные также разработали аналогичный подход для аудио. В аудиозаписях участни_ц просили прошептать определённые фразы, говорить с необычным тоном или использовать фоновый шум. Эти условия оказались чрезвычайно сложными для поддельных записей, что позволило системе с высокой точностью отличить дипфейки от настоящих записей.
В исследовании приняли участие 100 человек, а всего было обработано более 1,6 миллиона аудиофайлов. Совместный подход человека и ИИ продемонстрировал точность обнаружения на уровне 83%, что на порядок выше, чем при использовании только одного человека или одной ИИ-модели.

Принцип системы прост и эффективен: задачи выполняются всего за несколько секунд и не нарушают естественность общения. Как поясняет Хегде, задачи можно комбинировать и изменять, что делает метод более надёжным. Такой подход позволяет в реальном времени отличать подлинные видео и аудиозаписи от подделок, что значительно повышает безопасность общения в цифровом пространстве.
Впереди — дальнейшие усовершенствования
В будущем исследовател_ницы планируют улучшить методику. «Цель нашего подхода — создать надёжные инструменты для людей, чтобы проверять собеседни_ц и оставаться уверенными в их подлинности», — говорит Хегде. Учитывая быстрое развитие технологий дипфейков, такие системы станут незаменимым инструментом для повышения цифровой безопасности и восстановления доверия к онлайн-коммуникациям.
Эта разработка представляет собой значительный шаг вперёд в борьбе с дипфейками. В условиях, когда мошенники активно используют технологии для обмана, решения на базе ИИ и гибкие методы обнаружения становятся важными для защиты пользовател_ниц и укрепления цифровой безопасности.