Введите верный e-mail адрес
Подписаться
Вы успешно подписались на нашу рассылку

Клонированные ИИ голоса: как сохранить свою репутацию в эру искусственного интеллекта

Human Constanta
23 мая 2024 Года

Голливудская актриса с беларусскими корнями Скарлетт Йоханссон публично обвинила генерального директора OpenAI Сэма Альтмана в намеренном клонировании её голоса для чата искусственного интеллекта GPT.

Как юридически регулируется клонирование голосов и на что нужно обращать особенное внимание, чтобы пользоваться этой технологией ИИ корректно? Эксперт Human Constanta объясняет, что в этом вопросе есть несколько правовых и этических соображений, которые нужно учитывать.

Технологии искусственного интеллекта (ИИ) всё чаще используются средствами массовой информации, а также НГО, для создания различных информационных продуктов. В беларусском гражданском секторе стали активно клонировать голоса политических заключённых, чтобы люди не забывали о проблеме, чтобы создавался эффект присутствия.

У Human Constanta есть ежемесячный дайджест новостей Human Rights News, создаваемый с использованием клонированного голоса правозащитницы Насты Лойка, которая осуждена репрессивным беларусским режимом на семь лет заключения в колонии за свою профессиональную деятельность. Команда спросила у Насты устного разрешения на клонирование её голоса и получила согласие.

Для клонирования голоса человека с помощью программ ИИ нужно иметь записи выступлений или просто образцы голоса человека. Эти образцы загружаются в программу и на основе образцов ИИ выдает варианты полученного голоса, который уже может использоваться для озвучивания новых информационных продуктов.

Право на приватность

Важно уделить особенное внимание тому, чтобы получить согласие самого человека на клонирование его или её голоса для создания какого-то нового продукта. Это касается не только ИИ, которые работают с голосами, а вообще создание любых медийных продуктов: их следует делать только с согласия человека или законных представителей. В случае с политическими заключенными, это, конечно, сделать сложно, но в каком-то формате это согласие нужно получить обязательно.

Интеллектуальное право

Европейские и американские правовые подходы в этом вопросе могут отличаться. Но общим будет то, что сам по себе голос не является объектом авторского права. Но объектом авторского права могут быть те записи, которые используются для тренировки алгоритма.

Необходимо убедиться, что использование записей для тренировки алгоритма, является законным, не нарушает авторских прав.

Репутационное право

Речь о диффамации в широком смысле слова. Напомним, что диффамация — это ложь, которая порочит честь, достоинство или деловую репутацию человека или организации. При клонировании голоса речь идёт не только о клевете и унижении достоинства, но о том, не наносит ли этот процесс ущерба репутации.

Например, когда клонированным голосом озвучивается какой-то текст, который бы сам человек никогда не сказал_а, когда информация представляет человека в невыгодном свете, высказывания содержат какие-то утверждения, которые противоречат ценностям человека. Всё это может стать поводом для конфликта, в том числе и правового. 

GDPR и персональные данные

Если речь идёт о территории Европейского союза, то кроме описанных выше правовых аспектах, следует обратить внимание на общий регламент о защите персональных данных GDPR, какие ограничения и регулирование приватности он накладывает на продукты, создаваемые с помощью ИИ и связано ли это именно с голосом. Записи голоса могут рассматриваться как персональные данные, особенно, если это узнаваемый голос и он может быть использован для идентификации человека.

Тут важно смотреть контекст и обращать внимание, не нарушает ли использование клонированного голоса приватности человека. Все эти вопросы обязательно должны быть рассмотрены перед тем, как начинать создавать какой-то информационный продукт такого рода.

Этические аспекты

Прежде всего необходимо подумать, насколько создание такого продукта в принципе соотносится с ценностями и принципами организации. К примеру, если правозащитная организация начала бы создавать продукты на основе голосов сотрудников, чтобы, скажем, не платить им гонорары за участие в создании этих продуктов. Это может рассматриваться с этической точки зрения как не совсем корректное поведение.

Это всего лишь один из примеров, вопросы этики тут могут вставать очень серьезные. Следует думать о том, может ли итоговый продукт навредить человеку, безопасности самого человека или родственников. Особенно это касается клонирования и дальнейшего использования голосов политических заключённых. Вопросы безопасности будут являться приоритетными, но многие из них решаются за счёт получения информационного согласия.

Транснациональность как явление при использовании ИИ

Многие правовые и юридические аспекты использования ИИ связаны с местонахождением и юрисдикцией человека, на основе чьего голоса создается продукт или образ. Место публикации, платформы, всё это создаёт клубок правовых коллизий.

К примеру, когда на YouTube, который действует по американскому законодательству, выкладывается ролик организацией, которая находится в ЕС и будет придерживаться европейского права, в том числе GDPR. При этом, сам человек находится в Беларуси и, соответственно, там свои правила и законы. Всё это нужно согласовывать, чтобы понять, на каком этапе и какое законодательство использовать и какие могут быть ограничения для конечного продукта.

Ещё важно смотреть на условия, на которых организация передаёт данные для обработки сервису ИИ. Нет ли там условий, что, например, эти же образцы голоса или итоговый продукт сервис может использовать дальше уже без ведома организации. Такого рода права передавать нельзя, по крайней мере, без согласия человека.

Искусственный интеллект (ИИ) стремительно развивается и все чаще применяется в различных сферах жизни. Вместе с этим возникает множество вопросов об ответственности за его использование. Надеемся, наш материал помог лучше разобраться в этических и юридических особенностях использования клонированных голосов.