Введите верный e-mail адрес
Подписаться
Вы успешно подписались на нашу рассылку

Между эффективностью и угрозами правам человека: алгоритмы и ИИ в правоохранительной сфере. Часть 1

Human Constanta
26 мая 2025 Года

Искусственный интеллект (ИИ) стремительно внедряется в различные сферы нашей жизни: от медицины до образования, от транспорта до государственного управления. Правоохранительные органы также всё чаще используют ИИ, чтобы повысить эффективность, сократить время реагирования и предсказывать потенциальные угрозы.

Однако не все такие технологии безопасны с точки зрения соблюдения прав человека. Некоторые вызывают обоснованные опасения из-за своей непрозрачности и предвзятости, а другие и вовсе используются как инструменты контроля и репрессий.

Ниже представлена подборка систем ИИ, применяемых в сфере безопасности в разных странах, с анализом их работы и воздействия на основные права и свободы.

Использование системы Precobs в Германии

Как работает технология

Precobs (Pre-Crime Observation System) – это система прогнозирования преступлений, применяемая полицией в Германии. Она относится к системам искусственного интеллекта в управленческом смысле, поскольку автоматизирует принятие решений на основе многовариантного анализа данных о прошлых преступлениях.

Система анализирует параметры уже совершённых краж (время, место, способ, украденные предметы) и, при наличии совпадений с заранее определенными шаблонами, выносит предупреждение о высокой вероятности совершения повторного преступления в определенном месте. Алгоритм формирует временно-пространственные прогнозы: например, что в радиусе 250 метров и в течение 72 часов может произойти новое преступление. Полиция может направить туда патруль или провести скрытое наблюдение. 

В чём проблема

Хотя Precobs не использует персональные данные, его прогнозы основаны на ограниченных источниках и официальной статистике, которая может быть неполной или предвзятой. Полицейские могут чрезмерно полагаться на алгоритм, не осознавая ограничений метода. Это создаёт риск того, что одни районы или группы населения могут оказаться под постоянным усиленным надзором.

Кроме того, эксперты отмечают, что предиктивные системы такого рода могут усиливать дискриминацию, закрепляя в автоматических решениях существующие стереотипы и искаженные представления, в том числе о криминогенности районов, где проживают социально уязвимые группы.

Внедрение системы также оправдывает все большее расширение полицейских баз данных, при этом система не прозрачна, её критерии не подлежат аудиту, а логика прогнозов недоступна для граждан.

Какие права затрагиваются

Использование системы Precobs может затрагивать следующие права:

  • Право на частную жизнь – из-за потенциального расширения слежки и сбора данных
  • Право на свободу от дискриминации – если предсказания усиливают полицейский контроль в районах с определёнными социальными или этническими характеристиками
  • Презумпция невиновности – когда присутствие в «зоне риска» воспринимается как основание для вмешательства
  • Право на справедливое судебное разбирательство, принцип правовой определенности – поскольку граждане не могут узнать, как формируется оценка риска и по каким критериям они попадают под наблюдение

Использование системы COMPAS в уголовном судопроизводстве США

Как работает технология

COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) – это алгоритмическая система, используемая в судах США для оценки риска рецидива. Хотя COMPAS не использует машинное обучение, его можно отнести к системам ИИ в широком смысле, поскольку он автоматизирует оценку вероятности рецидива на основе многопараметрического анализа, заменяя человеческое суждение.

Он анализирует анкетные и поведенческие данные обвиняемого, включая возраст, количество арестов, образование, историю насилия и употребления наркотиков. На основе этих параметров система рассчитывает числовую оценку риска, которую суд может использовать при принятии решений о мере пресечения, вынесении приговора или условно-досрочном освобождении. При этом алгоритм остается закрытым, а его логика – недоступной для проверки из-за коммерческой тайны.

В чем проблема

Ключевая проблема заключается в том, что COMPAS воспринимается как нейтральный инструмент, но фактически воспроизводит социальные и расовые предубеждения, заложенные в исходных данных.

Расследование ProPublica (2016) показало, что система в два раза чаще ошибочно определяла темнокожих обвиняемых как «‎высокий риск» при отсутствии последующего правонарушения, тогда как белые с рецидивом чаще получали «‎низкий риск».

Исследование Бахла, Топаза, Обермюллера, Голдштейн и Снейрсон (2024), опубликованное в журнале UCLA Law Review (2024), дополнительно указало, что применение COMPAS в округе Бровард (Флорида) в целом снизило общий уровень изоляции среди разных демографических групп, но одновременно усилило разницу между расовыми группами.

Также одно из исследований показало, что точность прогнозов COMPAS (65%) была немного выше, чем у отдельных людей без опыта в уголовном праве (63%) – это означает, что система не обладает значительным преимуществом в точности по сравнению с обычными людьми, даже не имеющими юридического или криминологического образования. Алгоритм непрозрачен, не подлежит аудиту и не дает возможности оспорить основания, на которых принимается решение, влияющее на свободу человека.

Какие права затрагиваются

Использование COMPAS может нарушать фундаментальные правовые гарантии:

  • Право на справедливое судебное разбирательство, принцип правовой определенности – из-за невозможности понять и оспорить алгоритмическую оценку
  • Право на свободу от дискриминации – поскольку оценки систематически завышаются для одной расовой группы
  • Презумпция невиновности – заменяется статистическим прогнозом будущего поведения без фактического правонарушения

Таким образом, несмотря на официальные ограничения и рекомендации, система продолжает применяться в условиях отсутствия публичного контроля и доказанной дискриминации, что превращает технологию в инструмент институциональной несправедливости.

Использование системы ShotSpotter в городах США

Как работает технология

ShotSpotter – это система акустического мониторинга, которая фиксирует громкие звуки, классифицирует их как потенциальные выстрелы и направляет аудиофрагменты на анализ, после чего уведомляет полицию. Сеть включает 15-25 датчиков на квадратную милю, каждый из которых оснащён микрофоном, GPS и процессором. ShotSpotter может быть квалифицирована как система искусственного интеллекта, поскольку автоматически классифицирует звуки, принимает решения о вероятности выстрела и инициирует действия полиции фактически без участия человека.

Система акустического обнаружения выстрелов ShotSpotter в настоящее время активно используется более чем в 100 городах США, где она установлена на десятках квадратных миль и интегрирована в работу полицейских патрулей. Однако в ряде городов, включая Чикаго и Сан-Диего, контракты на использование ShotSpotter были отменены или не продлены – чаще всего на фоне критики по поводу низкой точности, нарушений прав человека и расовой предвзятости в зонах установки датчиков.

В чём проблема

Несмотря на заявления о нацеленности на звуки выстрелов, микрофоны не выключаются, и аудио может содержать записи разговоров. Такие случаи уже становились частью уголовных дел, вызывая претензии к законности записи (например, в делах People v. Johnson и Commonwealth v. Denison). Некоторые микрофоны размещены рядом с частной собственностью, что вызывает опасения по поводу вторжения в личную жизнь. Алгоритмы классификации звуков считаются конфиденциальными и не подлежат раскрытию.

Также Сенсоры ShotSpotter устанавливаются преимущественно в районах с преобладанием небелого населения, что ведёт к более частым взаимодействиям полиции с этими группами, даже если сигналы оказываются ложными. Это создает непропорциональную нагрузку на жителей района и риск чрезмерной полицейской реакции, особенно на фоне недоказанной эффективности технологии.

Известны случаи, когда выезд по сигналу ShotSpotter заканчивался фатально. Самый громкий – убийство по всей видимости безоружного 13-летнего подростка латиноамериканского происхождения Адама Толедо в Чикаго в 2021 году. В другом случае офицер открыл огонь по мальчику, запускающему фейерверки, ошибочно приняв звук за выстрел.

Какие права затрагиваются

Использование системы ShotSpotter может затрагивать следующие права:

  • Право на частную жизнь – из-за постоянной акустической записи и возможности фиксации голосов, включая разговоры на частной территории
  • Право на свободу от дискриминации – поскольку датчики преимущественно размещаются в районах с небелым населением, создавая риск непропорционального полицейского вмешательства.
  • Презумпция невиновности – присутствие в районе активации ShotSpotter может становиться основанием для произвольных обысков и задержаний.
  • Право на справедливое судебное разбирательство, принцип правовой определенности – алгоритмы системы являются коммерческой тайной и не подлежат аудиту, что исключает возможность проверки и оспаривания выводов системы.

Во второй части материала по этой теме читайте об использовании практики внедрения ИИ в Китае и России.

Таким образом, развитие ИИ в правоохранительной сфере – это не только вопрос технологического прогресса, но и правовых, этических и гуманитарных последствий. Как показывает приведенная подборка, алгоритмы могут усиливать дискриминацию, нарушать частную жизнь, подменять справедливый суд алгоритмическими оценками и использоваться для политического контроля.

Важно не только совершенствовать технологии, но и обеспечивать прозрачность, подотчетность и соответствие их применения международным стандартам прав человека. Без этого ИИ рискует стать не помощником общества, а инструментом его угнетения.

ПОХОЖИЕ НОВОСТИ