В цифровом веке способов распространять дезинформацию становится все больше – ложные сведения можно облечь в текстовую, аудио-, или видео-форму. Дипфейки – созданные с помощью искусственного интеллекта медиа-продукты, убедительно имитирующие внешность и голос публичных лиц, – обладают особенно разрушительным потенциалом для введения потребитель_ниц такого контента в заблуждение.
Последствиями распространения дипфейков могут быть как урон репутации отдельных людей, так и манипуляция общественным мнением в масштабах значимых событий, таких как выборы.
Примеры дипфейков в политике и не только
Вскоре после начала полномасштабной военной агрессии России против Украины в интернете появилось сфабрикованное с помощью искусственного интеллекта видео, якобы изображающее президента Украины Владимира Зеленского, который призывает жителей Украины сложить оружие и сдаться. Зимой 2023 года президентка Молдовы Майя Санду оказалась в центре скандала из-за дипфейкового новогоднего видео, где она якобы запретила сбор шиповника, из которого готовят традиционный рождественский напиток. Видео распространяли пророссийские аккаунты, чтобы дискредитировать политику Майи Санду.
Президент США Джо Байден или, если быть точнее, его цифровой образ также становился героем дипфейк-контента – например, в интернете распространилось сфабрикованное видео, где Байден говорит, что якобы “встречался с инопланетянами,” а в штате Нью-Гэмпшир избиратель_ницам поступали телефонные звонки с фальшивой аудиозаписью голоса президента, призывающей не участвовать в голосовании.
Вице-президентка США Камала Харрис также попала под удар – дипфейк-видео с ее “участием” поделился Илон Маск на платформе X – в измененном клипе Харрис якобы заявляет, что является «идеальной мерой по разнообразию» (англ. diversity hire). Оригинальный аккаунт, опубликовавший видео, отметил его как «ПАРОДИЯ агитационного ролика Камалы Харрис», однако в репосте Маска этот контекст отсутствовал.
Некоторые дипфейки, по всей видимости, не преследуют цели дискредитировать публичных лиц, а создаются забавы ради. Так, в TikTok существует отдельный аккаунт “deeptomcruise,” где виртуальный двойник Тома Круза танцует или играет на гитаре, – на аккаунт подписано более 5 миллионов человек. Сгенерированные Midjourney изображения Папы Римского Франциска в белом пуховике, напоминающем по стилю дизайн Balenciaga, тоже стали виральным и собрали миллионы просмотров.
Какие политики принимают BigTech корпорации
Чем больше становится дипфейков, тем актуальнее для государств и онлайн-платформ становится вопрос регулирования подобного контента. С одной стороны технологии изменения голоса или генерирования изображений могут быть использованы для создания юмористического контента или политической сатиры, с другой – сложно с уверенностью сказать, насколько безобидным или серьезным будет эффект от опубликованного на широкую аудиторию синтетического контента, даже если подобный контент задумывался как ироничный.
Так, например, согласно политике X, “синтетический, манипулированный или вне контекста медиа-контент, который может ввести людей в заблуждение и причинить вред,” не допускается на платформе. X утверждает, что оценивает, был ли контент сфабрикован, рассматривает контекст, и устанавливает потенциальную возможность контента вызвать причинить серьезный вред. Сатира не нарушает политику до тех пор, пока она не “вызывает значительного заблуждения относительно подлинности медиа.” Несмотря на закрепленные в политике правила, их соблюдение не всегда контролируется – так, упомянутый выше пост Илона Маска, включающий ссылку на дипфейк, не был признан нарушающим политики платформы.
Правила YouTube также требуют от автор_ок контента сообщать о том, был ли размещаемый реалистичный контент, значительно изменен или искусственно сгенерирован. В случае, если пользователь_ницы не делают соответствующей отметки, YouTube может самостоятельно добавить ее к видео, а в случае систематических нарушений – удалить видео или исключить автор_ок из Партнерской программы YouTube.
Meta также приняла решение маркировать контент, созданный с помощью искусственного интеллекта. При этом недавние изменения в Политике конфиденциальности Meta позволяют использовать публично размещенные в Facebook и Instagram посты и фотографии для обучения генеративных моделей искусственного интеллекта. Такие действия вызвали публичный резонанс – так, австрийская правозащитная группа NOYB (англ. none of your business) подала жалобы на действия компании в 11 европейских странах. Основатель компании Макс Шремс (автор дел Schrems I и II в Европейский суд справедливости) обратил внимание, что процедура отказа от обработки данных перекладывает ответственность на пользователей, а не спрашивает активного согласия на использование данных.
А что на уровне государств
На уровне государств особенно важный этап в регулировании дипфейков – принятие Европарламентом Акта об искусственном интеллекте. Согласно статье 50(4) документа реалистичные изображения, видео и аудио, сгенерированные искусственным интеллектом, должны будут иметь специальное пояснение или пометку о том, что они созданы искусственно. Нарушение акта чревато штрафом до 35 миллионов евро или 7% глобального дохода компании. Еще один документ Европейского союза – Акт о цифровых услугах – обязует крупные онлайн-платформы проводить оценку влияния их сервисов на права человека.
Важно понимать, что создание новых правовых актов на уровне государств или политик на уровне компаний – не единственный способ создания поля для ответственности. Рамка права прав человека, во многом отраженная в основных международных договорах, уже достаточна для того, чтобы обеспечить ответственность государств, в случаях, когда их действия (или бездействия), связанные с дипфейками, ведут к нарушению свободы выражения мнения, запрета дискриминации, или иных прав.
Ответственность корпораций за нарушения подобных прав лежит в плоскости бизнеса и прав человека, хотя призвание к ответственности на практике может быть непростым. Создание дипфейков само по себе не нарушает международно-правовых норм. Нарушение происходит, когда такие дипфейки мешают реализации прав – и такие заявления требуют аргументации. Так, чтобы доказать, что именно дипфейк помешал реализации права избирать и быть избранным, необходимо продемонстрировать связь между причиной нарушения (дипфейком) и результатом (например, несправедливым ходом выборов).