Введите верный e-mail адрес
Подписаться
Вы успешно подписались на нашу рассылку

Маски реальности: что скрывается за дипфейками

Human Constanta
10 сентября 2024 Года

Термин «дипфейк» происходит от английских слов «deep learning» (глубокое обучение) и «fake» (подделка). Это технология искусственного интеллекта (ИИ), позволяющая создавать реалистичные фальшивые изображения и видеоролики.

Как появились дипфейки: от замены лиц  в порноиндустрии до политических скандалов

Разработка технологии ИИ началась в 1990-х годах. В 1997 году компания Video Rewrite представила программное обеспечение, позволяющее синхронизировать движения губ человека с произвольным звуком. Это был один из первых шагов на пути к созданию реалистичных видео с искусственно сгенерированным контентом.

Однако термин «дипфейк» прочно вошёл в наш лексикон лишь в 2017 году, когда анонимный пользователь с ником «deepfakes» разместил на форуме Reddit видео в котором с помощью технологии Face Swap лица порноактёров и порноактрис были заменены на лица известных людей, что вызвало широкий общественный резонанс. С тех пор технология дипфейков стремительно развивается, и сегодня мы наблюдаем всё более реалистичные и сложные поделки.

ИИ позволяет не только создавать реалистичные изображения и видео, но и имитировать голоса, создавать глубокие подделки текста и даже генерировать музыку. Появление доступных инструментов для создания дипфейков делает эту технологию привлекательной для самых разных целей: от развлечения до манипуляции общественным сознанием.

Дипфеки получаются в результате соревнования алгоритмов

В 2014 году американский исследователь Ян Гудфеллоу разработал генеративно-состязательные сети (GAN), понять как работает эта сеть можно на примере двух художников, которые постоянно соревнуются. Один из них — мастер подделок, он старается создать картину, настолько похожую на оригинал, что её невозможно отличить от настоящей. Другой художник — эксперт по искусству, его задача — разоблачить подделку. Именно так работают генеративно-состязательные сети (GAN), лежащие в основе технологии дипфейков.

Один из алгоритмов GAN изучает огромное количество фотографий или видеозаписей реальных людей, а затем создаёт совершенно новое изображение или видео. Другой алгоритм сравнивает созданный контент с оригиналами и пытается определить, является ли он подделкой. Чем больше они соревнуются, тем совершеннее становятся, и в результате мы получаем дипфейки, которые практически невозможно отличить от реальности.

Сфера применения дипфейков

ИИ-технологии активно развиваются, в связи с этим дипфейки начали набирать популярность и проникать в повседневную жизнь, становясь доступными не только узкому кругу лиц, но и обычным пользовател_ницам. Дипфейк, как и любую другую технологию, можно использовать как во благо, так и во вред.

Растёт сфера применения данной технологии, её используют в маркетинге, образовании, искусстве, здравоохранении, киноиндустрии, дизайне, журналистике.  Эта технология способствует созданию рекламных роликов, развлекательного контента, реалистичных спецэффектов, интерактивных уроков с участием исторических личностей, может помочь людям снова услышать собственный голос, если они больше не могут говорить. 

Однако данная технология также используется и для распространения дезинформации, пропаганды, различного рода мошенничества, шантажа, вымогательств, разрушения репутации, разжигания социальных конфликтов.

Как распознавать дипфейки

Распознавание дипфейков может оказаться непростой задачей, однако существуют различные способы, которые помогают выявить подделку, вот некоторые из них:

  • Анализ деталей. Присмотритесь к деталям изображения или видео. Обратите внимание на пальцы, глаза, кожу. Выглядят ли они естественно? Нет ли несоответствий с другими изображениями того же человека?
  • Проверка контекста. Сопоставьте информацию в видео с известными фактами. Соответствует ли дата съёмки погоде в указанном месте? Есть ли другие доказательства, подтверждающие или опровергающие подлинность контента?
  • Движения и звуки. Обратите внимание на неестественные движения или звуки. Дипфейки часто выдают себя неестественными мимикой, движениями глаз или искажениями голоса.
  • Использование специальных инструментов. Существуют специальные программы и сервисы, разработанные для обнаружения дипфейков. Они анализируют множество параметров, недоступных невооружённому глазу. Например, программа Video Authenticator от Microsoft умеет выявлять места, где было соединено несколько видеофрагментов. В свою очередь, программа Reverse Engineering от Facebook анализирует видео на предмет наличия характерных «отпечатков пальцев» ИИ. Эти «отпечатки» — это небольшие особенности видео, которые возникают при обработке его нейросетями и позволяют определить, было ли видео подделано.

Хотя эти методы могут помочь обнаружить дипфейки, важно помнить, что технология дипфейков быстро развивается. Постоянно разрабатываются новые методы, чтобы сделать их более реалистичными. 

Технология дипфейков ставит перед современным обществом сложные этические вопросы. С одной стороны, она предлагает нам безграничные возможности для творчества и самовыражения. С другой стороны, требует от нас ответственного подхода, чтобы защитить общество от дезинформации.

Не забывайте подвергать сомнению то, что вы видите на просторах интернета, особенно если вы думаете, что это выглядит немного странно или необычно, подумайте, почему может быть опубликовано то или иное видео/изображение.

ПОХОЖИЕ НОВОСТИ
Лаборатория цифровых свобод

10 фильмов о цифровой безопасности и киберугрозах

Виртуальные миры живут не только в наших компьютерах и телефонах. Как часть нашей жизни они часто становятся темой для фильмов и сериалов.
Лаборатория цифровых свобод

Яндекс, Tilda, mail.ru: почему больше не стоит доверять свои данные российским сервисам

Как российские спецслужбы могут собирать данные ваши и ваших пользователь_ниц через частные сервисы.
Лаборатория цифровых свобод

Почему сайты на Tilda небезопасны и что делать, если уже есть сайт на этом сервисе

Почему стало небезопасно использовать конструктор сайтов Tilda. Какие есть альтернативные, не российские, сервисы и как их можно использовать.
Лаборатория цифровых свобод

TikTok блокирует 95% контента для пользователей в России, возможен ли такой сценарий для Беларуси?

Мы поговорили с блогеркой о том, что сейчас происходит с TikTok и его алгоритмами в Беларуси в сравнении с Россией и взяли экспертный комментарий о том, являются ли ограничения TikTok нарушением цифровых прав и свобод.
Лаборатория цифровых свобод

Дипфейки и информационная война: как новые технологии меняют правила игры

Кроме традиционных методов информационной войны, пропаганды и дезинформации, сегодня распространены и кибератаки, а также использование искусственного интеллекта (ИИ) для создания ложных, но правдоподобных новостей. Государства и негосударственные акторы всё чаще прибегают к этим методам для достижения политических и военных целей.