Введите верный e-mail адрес
Подписаться
Вы успешно подписались на нашу рассылку

Как технологии усиливают гендерное насилие: последствия для женщин

Human Constanta
14 сентября 2024 Года

В цифровой информационной среде, насыщенной дезинформацией и манипуляцией фактами, люди становятся уязвимыми перед обманом. Технология дипфейков значительно усиливает и усугубляет эту тенденцию.

Большая часть общественного беспокойства по поводу дипфейков сосредоточена на опасениях, что они будут использоваться для подрыва политики или бизнеса. Однако реальность такова, что технологии дипфейков чаще применяются для создания сексуальных видео с женщинами без их согласия. Эти синтетические изображения, если сделаны правильно, могут быть весьма убедительными, превращая изображённого человека в объект манипуляций.

Почитайте наш материал о том, что такое цифровое насилие и как оно проявляется в отношении женщин и детей.

Как технологии для создания дипфейков  связаны с гендерным насилием

Дипфейки уже использовались для создания фейковых видео с участием политиков, публичных деятелей, признающихся в правонарушениях, и женщин, участвующих в сексуальных действиях, в которых они никогда не участвовали. Хотя некоторые из этих видео  из-за низкого качества или необычной обстановки можно легко распознать как подделки, многие другие почти невозможно отличить от настоящих.

Исследования показали, что сообщения в СМИ сосредоточены в основном на негативном использовании дипфейков в политике, а не на вреде, причиняемом несогласованным созданием сексуальных дипфейков, несмотря на то, что это является наиболее распространённым использованием дипфейков.

Действительно, политики сталкиваются с угрозой дипфейков. Однако опасения о прямом влиянии дипфейков на политику, вероятно, преувеличены. Большинство дипфейков (96%) — это несанкционированные сексуальные фейки, причём подавляющее большинство (99%) создаются с использованием изображений женщин. Таким образом, дипфейк превращается в новый инструмент гендерного насилия, где искусственный интеллект служит инструментом для эксплуатации, унижения и травли женщин.

Гендерное насилие с использованием технологий 

Цифровое гендерное насилие   — это применение цифровых технологий для совершения насильственных действий, направленных против человека по признаку пола. Оно может выражаться в физическом, сексуальном, психологическом или ином насилии.

Гендерное насилие с использованием технологий принимает множество форм, наиболее распространёнными формами насилия: мисинформация и клевета (67%), кибер харассмент  (66%), язык ненависти (65%), выдача себя за другое лицо (63%), взлом и преследование (63%), астротурфинг (скоординированные усилия по одновременному распространению вредоносного контента на разных платформах, 58%), оскорбления с использованием видео и изображений (57%), доксинг (55%), угрозы применения насилия (52%) и нежелательные изображения или откровенный сексуальный контент (43%).

Наиболее распространенными видами цифрового гендерного насилия являются:

  • дезинформация и клевета (67%),
  • кибербуллинг (66%),
  • язык ненависти (65%),
  • выдача себя за другого человека (63%),
  • взлом и преследование (63%),
  • скоординированные онлайн-кампании (58%),
  • оскорбления с использованием медиафайлов (57%),
  • доксинг, когда кто-то намеренно ищет и публикует личную информацию о другом человеке в интернете без его согласия (55%),
  • угрозы (52%),
  •  распространение нежелательного контента (43%).

По данным агентства ЕС по правам человека, каждая десятая женщина в ЕС с 15 лет подвергалась киберпреследованию, включая получение нежелательных и/или оскорбительных писем или SMS-сообщений откровенно сексуального характера, а также оскорбительных и/или неуместных предложений в социальных сетях.

Женщины-знаменитости в США и Южной Корее являются основными целями дипфейковых атак, но всё чаще жертвами оказываются обычные женщины и общественные деятельницы. Многие крупные социальные сети запретили несогласованные сексуальные дипфейки, но лишь немногие страны приняли законы, помогающие удалять такой контент. Знаменитости, такие как Скарлетт Йоханссон, публично выражали разочарование по поводу невозможности удалить такие видео из интернета. 

Кстати, Скарлетт Йоханссон много выступает против использования технологий ИИ, читайте у нас в материале.

Последствия цифрового гендерного насилия

Длительные последствия насилия могут иметь значительное влияние на здоровье и благополучие женщины, сохраняясь на протяжении всей её жизни. Они связаны с повышенным риском травм, депрессии, тревожных расстройств, инфекций и различных других проблем со здоровьем. Воздействие на психическое здоровье является глубоким, и жертвы сообщают о серьёзных последствиях, таких как стресс, беспокойство, депрессия, посттравматическое стрессовое расстройство (ПТСР), суицидальные мысли и даже попытки самоубийства.

Такие дипфейки также имеют важные последствия для здоровья, безопасности, политики и экономики. Эта форма насилия не только заставляет женщин молчать в онлайн-среде, но и снижает их участие в общественной и политической жизни, демократических процессах и руководящих ролях. Более того, гендерное насилие усиливает патриархальные роли, нормы и структуры, выступая существенным препятствием для достижения гендерного равенства и Целей устойчивого развития (ЦУР).

Какие меры можно предпринять, чтобы предвидеть и снизить риски

Несогласованные сексуальные дипфейки представляют серьёзную угрозу для гендерного равенства по нескольким причинам:

  • Ущемление права на частную жизнь. Создание и распространение таких дипфейков грубо нарушает право человека на частную жизнь, позволяя злоумышленникам использовать чужое изображение без согласия для создания порнографического контента.
  • Сексуализация и объективация женщин. Дипфейки часто используются для сексуализации и объективации женщин, закрепляя вредные гендерные стереотипы и усиливая культуру насилия в отношении женщин.
  • Психологическая травма. Жертвы дипфейков часто испытывают глубокую психологическую травму, включая депрессию, тревогу, стыд и страх. Это может привести к социальной изоляции и ухудшению качества жизни.
  • Угроза репутации. Распространение дипфейков может нанести непоправимый ущерб репутации жертвы, что может привести к потере работы, разрыву отношений и другим негативным последствиям.
  • Усиление неравенства. Дипфейки способствуют усилению гендерного неравенства, создавая атмосферу страха и запугивания, которая препятствует активному участию женщин в общественной жизни.
  • Осложнение борьбы с сексуальным насилием. Дипфейки затрудняют борьбу с сексуальным насилием, так как создают сомнения в достоверности обвинений и могут использоваться для запугивания жертв.

При разработке мер противодействия дипфейкам и иным формам гендерного насилия, государства должны учитывать эти случаи и создавать эффективные правовые, политические и нормативные рамки, соответствующие международным стандартам в области прав человека.

Одновременно с этим технологические компании должны принять совместный подход к созданию цифровых платформ. Прозрачность имеет решающее значение при развёртывании ими алгоритмов, модерации контента, политик и механизмов подачи жалоб, в сочетании с обязательством взять на себя ответственность за последствия, возникающие в результате игнорирования вредоносного контента и ненадлежащего использования технологий. При разработке технологий ИИ важно отдавать приоритет разнообразию и инклюзивности.

Важно понимать, что борьба с дипфейками — это комплексная задача, требующая совместных усилий государства, общества и технологических компаний.

ПОХОЖИЕ НОВОСТИ

Как нюансы человеческой мимики помогают распознавать дипфейки

В современном мире, где технологии стремительно развиваются, мимика становится не только средством коммуникации, но и инструментом для обнаружения дипфейков. 
Лаборатория цифровых свобод

Готовы ли крупные социальные сети к дипфейкам и другой дезинформации, создаваемой с помощью ИИ накануне выборов

В 2024 году в более, чем 50 странах мира пройдут президентские или парламентские выборы. Это год-рекордсмен по их числу. Эксперт_ки опасаются, что крупнейшие социальные сети не готовы бороться с дезинформацией.
Лаборатория цифровых свобод

Маски реальности: что скрывается за дипфейками

Термин «дипфейк» происходит от английских слов «deep learning» (глубокое обучение) и «fake» (подделка). Это технология искусственного интеллекта (ИИ), позволяющая создавать реалистичные фальшивые изображения и видеоролики.
Лаборатория цифровых свобод

Дипфейки и информационная война: как новые технологии меняют правила игры

Кроме традиционных методов информационной войны, пропаганды и дезинформации, сегодня распространены и кибератаки, а также использование искусственного интеллекта (ИИ) для создания ложных, но правдоподобных новостей. Государства и негосударственные акторы всё чаще прибегают к этим методам для достижения политических и военных целей.