Введите верный e-mail адрес
Подписаться
Вы успешно подписались на нашу рассылку

Человек или цифровая мимикрия?

Human Constanta
2 октября 2024 Года

Синтетическое воскрешение, подделка голоса — на что только не идут создатели дипфейков, чтобы исказить информацию и ввести людей в заблуждение. Давайте подробнее обсудим как злоумышленники применяют дипфейки и какие этические проблемы стоят за этими процессами.

Порнографические дипфейки как макро-контексте гендерного неравенства

Среди злоумышленных применений дипфейков особое место занимают порнография с участием знаменитостей и порнография в целях мести. Порнографические дипфейки следует рассматривать в макро-контексте гендерного неравенства, поскольку они направлены против женщин и наносят им эмоциональный и репутационный вред. Согласно Sensity AI примерно 96% всех дипфейков представляют собой порнографические видео. Они собрали более 134 миллионов просмотров на четырех крупнейших порнографических сайтах.

Порнографические дипфейки могут угрожать, запугивать и наносить психологический вред, превращая женщин в сексуальные объекты и причиняя им эмоциональные страдания, ущерб репутации, а в некоторых случаях даже финансовые потери или потерю работы. Большинство порнографических дипфейков создаются без согласия. Некоторые сайты уже заранее запретили размещение такого контента.

Почитайте наш материал Защищать и наказывать: опыт противодействия цифровому насилию.

Этический аспект использования дипфейков становится еще более сложным, когда речь идет о создании синтетической порнографии с согласия участников. Хотя некоторые могут утверждать, что это эквивалент морально допустимой сексуальной фантазии, согласие на создание дипфейков может способствовать нормализации идеи искусственной порнографии, что вызывает дополнительные опасения по поводу негативного влияния порнографии на психологическое и сексуальное развитие. Реалистичные виртуальные аватары могут также привести к негативным последствиям. Вопрос в том, как это повлияет на поведение в реальной жизни?

Дезинформация, нанесение репутационного ущерба и другие способы влиять на избирателей

Использование лжи, искажений фактов и представления альтернативной правды стало нормой в политике. Это делается для мобилизации, влияния и убеждения людей в целях получения голосов и доноров. Данное является неэтично, но она уже стала нормой.

Дипфейки и синтетические медиа могут оказать значительное влияние на исход выборов, если политические партии решат их использовать. Обман наносит значительный вред людям, так как мешает им принимать информированные решения в своих интересах. Намеренное распространение ложной информации об оппозиции или представление альтернативной правды о кандидате на выборах манипулирует избирателями, заставляя их служить интересам обманщика. Эти практики являются неэтичными и имеют ограниченные правовые последствия. Подобно этому, использование дипфейков для запугивания избирателей с целью предотвращения голосования также является аморальным.

Мы уже писали материал по теме того, готовы ли крупные социальные сети к дипфейкам и другой дезинформации, создаваемой с помощью ИИ накануне выборов.

Дипфейки могут также использоваться для дезинформации, ложного представления фактов о кандидате, ложного преувеличения их вклада или нанесения ущерба репутации кандидата. Дипфейк с намерением обмануть, запугать, дезинформировать и причинить ущерб репутации для распространения дезинформации однозначно является неэтичным.

Синтетическое воскрешение это уже наша реальность

Еще одной областью для беспокойства является так называемое синтетическое воскрешение. У людей есть право контролировать коммерческое использование своего образа, и в некоторых штатах США, таких как Массачусетс и Нью-Йорк, это право распространяется на посмертное использование. Однако в других странах этот процесс может быть гораздо более сложным.

Основной вопрос, касающийся известных личностей, заключается в том, кто владеет их лицом и голосом после смерти. Можно ли использовать их для рекламы, пропаганды и коммерческой выгоды? Существуют моральные и этические опасения по поводу того, как дипфейки могут использоваться для посмертной дискредитации политических лидеров с целью достижения политических и идеологических целей. Хотя существуют некоторые юридические защиты против использования образа и голоса умершего в коммерческих целях, если наследники имеют законное право на использование этих характеристик, они могут использовать их для своей выгоды.

Еще одной потенциальной этической проблемой является создание дипфейкового аудио или видео с голосом и образом близкого человека после его смерти. Некоторые компании предлагают услуги создания синтетического голоса как нового вида терапии для скорбящих или для того, чтобы помочь людям сохранить связь с умершими. Хотя некоторые могут утверждать, что это похоже на сохранение фотографий и видео умерших, есть моральная двусмысленность в использовании голосовых и визуальных характеристик для создания синтетических цифровых версий.

Создание синтетического голоса, который звучит как человеческий

Хотя голосовые помощники, такие как Alexa, Cortana и Siri, становятся все более реалистичными, люди пока еще способны распознавать их как синтетические голоса. Однако улучшения в области технологий синтеза речи позволяют этим помощникам имитировать человеческие и социальные элементы речи, такие как паузы и вербальные сигналы. Такие проекты, как Google Duplex, направлены на разработку голосовых помощников, которые могут совершать звонки от имени человека так, что их голос невозможно будет отличить от человеческого.

Возможность создания синтетического голоса, который звучит как человеческий, вызывает несколько этических вопросов. Поскольку технология дипфейковых голосов создается для имитации человеческого голоса, это может подорвать реальные социальные взаимодействия. Также возможно возникновение расовых и культурных предубеждений из-за предвзятости в обучающих наборах данных для этих инструментов.

Синтетические голосовые дипфейки могут также использоваться для обмана людей с целью получения денежной или коммерческой выгоды. Автоматизированные колл-центры, дипфейковые аудио с участием общественных личностей и телефонные мошенники могут использовать синтетические голосовые инструменты в своих целях.

Поддельные цифровые личности

Дипфейк-технология может создавать полностью искусственно сгенерированное лицо, человека или объект. Создание и улучшение поддельных цифровых идентичностей в целях мошенничества, шпионажа или инфильтрации является неэтичным.

Синтетическое лицо создается путем обучения алгоритма глубокого обучения на большом наборе реальных изображений лиц для генерации дипфейка. Однако обучение модели с использованием реальных лиц без должного согласия на такие действия является неэтичным.

Кто и в какой степени несёт ответственность

Создатели и распространители дипфейков обязаны обеспечивать этичное использование синтетических медиа. Крупные технологические платформы, такие как Microsoft, Google и Amazon, которые предоставляют инструменты и облачные вычислительные ресурсы для быстрого создания дипфейков, имеют моральное обязательство. Социальные медиа, такие как Facebook, Twitter, LinkedIn и TikTok, которые предлагают возможность массового распространения дипфейков, должны проявлять этическую и социальную ответственность за их использование, как и новостные организации, журналисты, законодатели и гражданское общество.

Этическое обязательство социальных и технологических платформ заключается в предотвращении вреда. Хотя пользователи этих платформ несут ответственность за распространение и потребление контента, маловероятно, что пользователи смогут эффективно реагировать на злобные дипфейки. Важно, чтобы платформы взяли на себя основную ответственность за идентификацию и предотвращение распространения вводящего в заблуждение и манипулированного медиа-контента.

Большинство технологических и социальных платформ уже имеют политики по борьбе с дезинформацией и злонамеренными синтетическими медиа, но они должны быть согласованы с этическими принципами. Например, если дипфейк может нанести значительный вред (репутационный или иной), платформы должны удалять такой контент. Платформы должны внедрять меры по контролю за распространением, такие как ограничение общего доступа или понижение ранжирования, чтобы остановить распространение дипфейков в своих сетях. Маркировка контента является еще одним эффективным инструментом, который должен использоваться объективно и прозрачно, без политических предвзятостей или учета бизнес-модели.

BigTech платформы также несут этическое обязательство по созданию и поддержанию норм распространения в своей пользовательской среде. Формулирование стандартов сообщества, идентичности сообщества и ограничений на размещение контента может оказать реальное влияние на производителей контента. Нормы и руководства для сообществ, включая примеры желаемого поведения и позитивные ожидания от пользователей как участников сообщества, могут укрепить поведение, соответствующее этим ожиданиям. Условия использования и политики платформ играют значительную роль в предотвращении распространения вредоносных сфабрикованных медиа.

Институты, заинтересованные в борьбе с проблемами, связанными с манипулируемыми медиа, несут этическое обязательство обеспечивать доступ к программам медийной грамотности. Платформы должны наделять пользователей знаниями и навыками критической медийной грамотности, чтобы помочь им строить устойчивость и разумно подходить к потреблению, обработке и распространению информации. 

ПОХОЖИЕ НОВОСТИ
Лаборатория цифровых свобод

Дивиденды лжеца: как дипфейки подрывают доверие общества к информации

Понятие «дивиденды лжеца» описывает ситуацию, когда люди могут отрицать правдивость уличающих их доказательств, ссылаясь на существование дипфейков. Разграничить правду и вымысел становится все сложнее.

Для мошенничества в цифровой среде всё чаще используются дипфейки

Мошенничество с использованием дипфейков становится всё более серьёзной угрозой в современном цифровом пространстве.
Лаборатория цифровых свобод

Как дипфейки подрывают доверие к реальности

C появлением дипфейков пропаганда  получила новый уровень воздействия. 
Лаборатория цифровых свобод

Голосовые дипфейки: новые возможности или новые риски?

Теперь с помощью записи голоса, можно создавать его точную подделку, которая практически неотличима от оригинала. Эта возможность открывает двери для множества полезных применений. Однако, как и в случае с любыми передовыми технологиями, эта инновация несет в себе не только плюсы, но и значительную угрозу.