Термин «дипфейк» происходит от английских слов «deep learning» (глубокое обучение) и «fake» (подделка). Это технология искусственного интеллекта (ИИ), позволяющая создавать реалистичные фальшивые изображения и видеоролики.
Содержание
Как появились дипфейки: от замены лиц в порноиндустрии до политических скандалов
Разработка технологии ИИ началась в 1990-х годах. В 1997 году компания Video Rewrite представила программное обеспечение, позволяющее синхронизировать движения губ человека с произвольным звуком. Это был один из первых шагов на пути к созданию реалистичных видео с искусственно сгенерированным контентом.
Однако термин «дипфейк» прочно вошёл в наш лексикон лишь в 2017 году, когда анонимный пользователь с ником «deepfakes» разместил на форуме Reddit видео в котором с помощью технологии Face Swap лица порноактёров и порноактрис были заменены на лица известных людей, что вызвало широкий общественный резонанс. С тех пор технология дипфейков стремительно развивается, и сегодня мы наблюдаем всё более реалистичные и сложные поделки.
Дипфеки получаются в результате соревнования алгоритмов
В 2014 году американский исследователь Ян Гудфеллоу разработал генеративно-состязательные сети (GAN), понять как работает эта сеть можно на примере двух художников, которые постоянно соревнуются. Один из них — мастер подделок, он старается создать картину, настолько похожую на оригинал, что её невозможно отличить от настоящей. Другой художник — эксперт по искусству, его задача — разоблачить подделку. Именно так работают генеративно-состязательные сети (GAN), лежащие в основе технологии дипфейков.
Один из алгоритмов GAN изучает огромное количество фотографий или видеозаписей реальных людей, а затем создаёт совершенно новое изображение или видео. Другой алгоритм сравнивает созданный контент с оригиналами и пытается определить, является ли он подделкой. Чем больше они соревнуются, тем совершеннее становятся, и в результате мы получаем дипфейки, которые практически невозможно отличить от реальности.
Сфера применения дипфейков
ИИ-технологии активно развиваются, в связи с этим дипфейки начали набирать популярность и проникать в повседневную жизнь, становясь доступными не только узкому кругу лиц, но и обычным пользовател_ницам. Дипфейк, как и любую другую технологию, можно использовать как во благо, так и во вред.
Растёт сфера применения данной технологии, её используют в маркетинге, образовании, искусстве, здравоохранении, киноиндустрии, дизайне, журналистике. Эта технология способствует созданию рекламных роликов, развлекательного контента, реалистичных спецэффектов, интерактивных уроков с участием исторических личностей, может помочь людям снова услышать собственный голос, если они больше не могут говорить.
Однако данная технология также используется и для распространения дезинформации, пропаганды, различного рода мошенничества, шантажа, вымогательств, разрушения репутации, разжигания социальных конфликтов.
Как распознавать дипфейки
Распознавание дипфейков может оказаться непростой задачей, однако существуют различные способы, которые помогают выявить подделку, вот некоторые из них:
- Анализ деталей. Присмотритесь к деталям изображения или видео. Обратите внимание на пальцы, глаза, кожу. Выглядят ли они естественно? Нет ли несоответствий с другими изображениями того же человека?
- Проверка контекста. Сопоставьте информацию в видео с известными фактами. Соответствует ли дата съёмки погоде в указанном месте? Есть ли другие доказательства, подтверждающие или опровергающие подлинность контента?
- Движения и звуки. Обратите внимание на неестественные движения или звуки. Дипфейки часто выдают себя неестественными мимикой, движениями глаз или искажениями голоса.
- Использование специальных инструментов. Существуют специальные программы и сервисы, разработанные для обнаружения дипфейков. Они анализируют множество параметров, недоступных невооружённому глазу. Например, программа Video Authenticator от Microsoft умеет выявлять места, где было соединено несколько видеофрагментов. В свою очередь, программа Reverse Engineering от Facebook анализирует видео на предмет наличия характерных «отпечатков пальцев» ИИ. Эти «отпечатки» — это небольшие особенности видео, которые возникают при обработке его нейросетями и позволяют определить, было ли видео подделано.
Технология дипфейков ставит перед современным обществом сложные этические вопросы. С одной стороны, она предлагает нам безграничные возможности для творчества и самовыражения. С другой стороны, требует от нас ответственного подхода, чтобы защитить общество от дезинформации.
Не забывайте подвергать сомнению то, что вы видите на просторах интернета, особенно если вы думаете, что это выглядит немного странно или необычно, подумайте, почему может быть опубликовано то или иное видео/изображение.