Всё чаще в разных сферах деятельности звучит тема искусственного интеллекта (далее — ИИ): то студент_ки написали дипломную работу при помощи ChatGPT, то в мировые тренды вошли изображения, сгенерированные программой Lensa, которая оказалась небезопасной. Всё это продукты работы ИИ.
Чтобы лучше разобраться в том, что такое искусственный интеллект и как он связан с правами человека, мы поговорили с руководителем проекта, направленного на укрепление гражданского общества с помощью информационных технологий, «Теплица социальных технологий» Алексеем Сидоренко.
Содержание
- 1 Искусственный интеллект (ИИ) или машинное обучение
- 2 Как ИИ помогает правозащитни_цам и какие профессии могут исчезнуть в будущем
- 3 Предвзятость ИИ может стать угрозой для прав человека
- 4 Проблемы, которые учиняет ИИ в правозащитной деятельности
- 5 Может ли закон запретить ИИ
- 6 Направления развития ИИ в правозащите и в сфере прав человека в будущем
Искусственный интеллект (ИИ) или машинное обучение
Общепризнанного определения искусственного интеллекта на данный момент не существует. Однако под ИИ в широком смысле понимают спектр различных технологий, которые работают над повышением способности машин и интеллектуальных систем (а именно компьютеров) выполнять действия, подобные человеческому интеллекту.
Также иногда ИИ представляют под термином машинное обучение. Суть ИИ в том, что эти технологии постоянно расширяют свой спектр деятельности и становятся сведущими в том, что раньше казалось только прерогативой человека. То есть это решение сложных задач, в основном связанных с задачами классификации. Например, определение того, что кошка на изображении — это кошка. Также задачи количественного анализа и прогностического.
Работает ИИ следующим образом:
- системы ИИ собирают огромное количество данных,
- на основе этих данных формируют вселенную, в рамках которой они ориентируются.
Это похоже на то, как люди у себя в мозгу на основе своих нейронных сетей формируют сознание и понимание того, что происходит. В этом смысле ИИ пытается приблизиться к человеческому интеллекту.
Сейчас появляется огромное количество способов применения ИИ: от написания статей и стихов до создания видео, подкастов, изменения изображения и определения лиц. И это лишь малая часть: легче перечислить, где ИИ пока что всё ещё не применяется.
Он настолько широк в использовании, потому что позволяет сильно оптимизировать работу — прежде всего за счёт того, что он может многие задачи, которые раньше были подвластны только человеку, делать круглосуточно, быстрее и иногда более точно, чем человек. Мы живем в цифровую эпоху, и поэтому число областей жизни, где используется ИИ, постоянно увеличивается.
Как ИИ помогает правозащитни_цам и какие профессии могут исчезнуть в будущем
Правозащитни_цам ИИ может помочь в написании или составлении документов. Например, ChatGPT — чат-бот и первый многозадачный ИИ от компании OpenAI — позволяет буквально на основе двух строчек создавать скелеты документов. ChatGPT проделывает столько работы, которую раньше приходилось делать, например, референтам. Именно поэтому в это столетие исчезнет много различных профессий за ненадобностью.
Правозащитные организации часто используют изображения в своей деятельности. Система генеративного ИИ (который что-то генерирует/создает) умеет формировать очень необычные изображения для привлечения внимания, также помогает в создании кампейнинг (ведение общественных кампаний) материалов и в сборе данных из других источников.
Всё актуальнее становится работа с переводом документов. Например, беларусскоязычным и русскоязычным журналист_кам часто важно иметь быстрый и качественный перевод по рукой. Для этого как раз и появилась система DeepL (DeepL Переводчик). В ней, как и в Google Translate, используется ИИ, только вот переводит документы эта система значительно лучше.
Существует так называемые «технологии, близкие к ИИ» — это когда мы говорим о каком-то количественном анализе, сентимент-анализе, обо всем, что связано с OSINT (Open-source intelligence — Разведка по открытым источникам).
«Например, когда мы пытаемся распознать какого-нибудь человека, совершившего преступление, с помощью системы распознавания изображения или на основе баз данных, которые сопоставляют изображения. Для таких действий тоже используется ИИ.
Следующая область — антидипфейк, когда мы применяем ИИ для того, чтобы повысить свою анонимность. К примеру, есть люди, которые хотят оставаться анонимными. Они могут создать изображение псевдореального человека или использовать алгоритмы для того, чтобы, например, скрыть своё лицо, своё изображение и тд. В любом случае то, что мы будем называть ИИ, будет так или иначе использоваться в подобных технологиях».
Вообще, работа с данными, которые вводятся для генеративного ИИ, становится частью компьютерной грамотности. Если раньше, лет 30 назад, нужно было уметь быстро печатать, открывать сайты,пользоваться поиском, писать мейлы, то навык, который становится необходимым уже сейчас, — работа с диалоговыми интерфейсами. И понимание того, как они работают и какие у них есть ограничения, что они могут нам дать и чего не могут.
Диалоговые интерфейсы сильно ускоряют работу и увеличивают производительность. В будущем, вероятно, появится целый набор специализированных инструментов, связанных с правозащитной деятельностью.
Кстати, тут же можно вспомнить Help Desk (техническая поддержка) и различные системы автоматизированной помощи. Это уже сейчас происходит в технологических стартапах, когда человек задает вопрос, а ему автоматически рекомендуются какие-то тексты. А ещё современные технологии уже могут, в зависимости от задачи, из текстов собирать ответы.
Для тех правозащитни_ц, у которых есть своя собственная система поддержки и правовой консультации, для них точно необходимо освоить подобные системы, потому что они увеличивают число желающих получить такую консультацию.
Наконец, в 2023 году работа с ИИ становится частью необходимых компетенций для людей, которые работают с любой формой консультационной помощи. В правозащите не все дела доходят до судов и многие вещи решаются в режиме вопроса-ответа, а это очень похоже на любую систему поддержки.
Предвзятость ИИ может стать угрозой для прав человека
Так как ИИ основан на данных и является во многом усилителем тех алгоритмов, которые заложены в этот сбор данных, то образовывается проблема того, что ИИ может быть усилителем уже существующей очень серьезной дискриминации и структурного неравенства.
Разговоры про вероятность предвзятости ИИ ведутся практически с самого начала создания технологии. По-настоящему заметной проблема стала с 2016 года, когда разразился скандал из-за программы COMPAS (Correctional Offender Management Profiling for Alternative Sanctions, «Коррекционное управление профилированием обвиняемых на предмет альтернативных наказаний»), которая используется судьями в некоторых штатах США для помощи в вынесении приговоров.
Алгоритмы программы оказались расистскими. COMPAS использовала машинное обучение и архив исторических данных для прогнозирования вероятности, с которой преступники, которые когда-то совершили насильственное преступление, способны совершить его еще раз. По ее мнению, люди с тёмным цветом кожи способны на повторное преступление с большей вероятностью, чем люди с отличным цветом кожи.
Само появление ИИ обнажило все существующие структурные проблемы, прежде всего в западном обществе, а после — и в остальном мире.
Самые известные примеры:
- Искусственный интеллект Amazon был предназначен для упорядочивания резюме соискатель_ниц. Резюме женщин он отклонял, а вместо этого предлагал нанимать кандидатов, использующих в речи характерные мужские глаголы, даже если у этих людей не было нужных навыков.
- Два шанхайских профессора предложили определять криминальность выражения лица на основе технологии распознавания лиц, причем данные они брали из базы данных уже совершенных преступлений. Некоторое количество людей в ней оказались с высокой корреляцией к изначально маргинализированным группам.
С тех пор проводится работа на методологическом уровне для того, чтобы эти built-in bias (встроенные искажения/отклонения) пытаться как-то изменить. Очень важно понимать, как и на основе чего собираются данные, почему они появляются такими, какие есть. Нужно предпринимать все необходимые усилия для того, чтобы их очищать и устранять те структурные системы неравенства, которые приводят к тому, что такие данные вообще появляются.
Есть примеры не просто теоретического нарушения прав, но и очень конкретного: в Москве ИИ используется для распознавания лиц в камерах наружного наблюдения, и активист_ки, которые в день митинга просто садились в метро, не планируя ехать на митинг, сразу были арестованы для проверки. В этом примере нарушен принцип презумпции невиновности. Человек ничего не совершил, но ИИ уже предполагает, что этот человек на основе своей предыдущей активности может выступить в этот момент там на каком-то митинге, что абсолютно в его или в её праве.
Проблемы, которые учиняет ИИ в правозащитной деятельности
На данный момент самые крупные проблемы — это технология распознавания лиц, которую обсудили выше, использование алгоритмов с предвзятыми данными и их непрозрачность, а также энергоёмкость систем ИИ.
Кстати, вы можете почитать у нас на сайте о том, как технологии, созданные с благой целью, превращаются в инструмент слежки за людьми и причём тут ответственность бизнеса — по ссылке.
«Какими бы алгоритмы ни были, с большой вероятностью в них будут появляться и усиливаться встроенные искажения/отклонения, которые присутствуют в обществе. Однако с этими проблемами хотя бы можно работать, предъявляя требования прозрачности алгоритмов. Это если мы живем в демократическом обществе. Но если мы в тоталитарном обществе, которое использует технологии для заглушения голосов протестующих, то тогда ИИ становится очень сильным оружием.
Это оружие позволяет, во-первых, ускорять любые процессы, во-вторых, их автоматизировать и делать абсолютно бездушными. Например, примечателен случай создателя компании NTechLab, которому говорили, что то, что они делают, не приведет к хорошему в данных условиях. И только сейчас, как год с началавойны, основатель компании уехал из страны и сказал, что вообще не ожидал, что эта технология распознавания лиц может привести к подобным эффектам и нарушениям прав человека. Данный пример возвращает нас к теме ответственности бизнесов за нарушение прав человека.
Это большая проблема, характерная не только для тоталитарных и авторитарных обществ, но и для демократических тоже. Есть случаи, когда коммерческие компании используют технологии для оценки кредитного рейтинга. Пример из книги Weapon of mass destruction, где описаны образцы таких закрытых систем, которые опираются на данные, созданные уже изначально на основе неравенства. В этих системах люди, например, из неблагополучных районов (и этот факт часто связан с расовыми различиями) не могут получить кредит, потому что система распознаёт их как неблагонадёжных. Она не обращает внимание на то, что они за люди и чем занимаются, какая у них индивидуальная история, — она просто ставит на них штамп дискриминации, не давая им шанса изменить свою жизнь».
Более глобальная проблема — непрозрачность этих алгоритмов и невозможность их проаудировать как следует. То есть чем больше модель, тем она сложнее, и поэтому выходит за пределы человеческого понимания.
Энергопотребление — это ещё одна очень крупная и больше философская проблема в контексте изменения климата. Ведь все эти системы — они очень энергоемкие, и не все компании вкладываются в CO2-нейтральность.
Может ли закон запретить ИИ
Из уже существующего законодательства в Европе есть GDPR (General Data Protection Regulation) — общий регламент по защите данных. Регламент разработан Европейским союзом и определяет порядок обработки персональных данных и обеспечение их прозрачности организациями.
Также совсем недавно Совет ЕС принял директиву о безопасности сети и информационных систем (NIS2 — Network and Information Security). Она призывает согласовать меры в области кибербезопасности в государствах-членах ЕС, установив требования к нормативно-правовой базе и механизмам сотрудничества между соответствующими органами.
На сегодняшний день основные пути регулирования искусственного интеллекта направлены на распространение этики ИИ — это моральные вопросы того, как искусственно разумные машины и роботы могут быть использованы во вред или в интересах людей. Тут же и об ошибках и ответственности за них, о вышеописанной предвзятости и интерпретируемости результатов. На поиск подходов к регулированию дипфейков и генеративных моделей, на то, за кем остаётся авторство произведения и как регулировать метавселенные.
Направления развития ИИ в правозащите и в сфере прав человека в будущем
В ближайшее время, например, могут развиваться автоматизированные системы вынесения судебных решений в таких крупных структурах, как ЕСПЧ. Известно, что дел там много, очередь большая. Многие правовые аспекты там хорошо задокументированы, что в целом создает предпосылки использования ИИ в этой области.
Перспективное направление, которое может появиться, — использование ИИ для борьбы с ИИ. То есть это какие-то средства алгоритмического противодействия, например, распознаванию лиц, распознаванию сигналов, борьбы с ботами.
Третье, это то, что уже происходит, — использование всё более активного анализа данных, чтобы, например, расследовать целое законодательство.
Например, «Алгоритм света», который как раз с использованием машинного обучения, что тоже относится к области ИИ, проанализировал 500 000 судебных решений. Это то, что ни один человек-исследователь не смог бы в такое короткое время и вообще за свою жизнь успеть сделать. И вероятнее всего, правозащитни_цы, которые как раз работают с аналитическими данными, будут использовать что-то подобное.
А ещё правозащитни_цы, как и все остальные люди, будут использовать всё большее количество офисных инструментов, писать ответы на письма с помощью них.
В целом, все те направления, которые обозначены в начале статьи, это как раз и есть области применения, где в дальнейшем просто будет происходить постоянное систематическое совершенствование.