С 1 июля этого года в судебную систему города Сан-Франциско (США), пока лишь только в виде эксперимента, планируется внедрить практику использования искусственного интеллекта, чтобы тот помогал прокурорам исключать вероятность расовых предрассудков при предъявлении обвинений подозреваемым, сообщает портал The Verge.
Искусственный интеллект в судебной системе
Как сообщили в офисе окружного прокурора Сан-Франциско, задача системы будет заключаться не только в том, чтобы анализировать отчеты полиции и автоматически удалять из них данные, с помощью которых можно определить расу подозреваемого (цвет глаз, волос, кожи), но и данные о его окружении (родственников, друзей, соседей и так далее), которые также косвенно могут указывать на принадлежность подозреваемого к той или иной расе. Помимо этого, ИИ будет убирать из отчетов имена и данные свидетелей и сотрудников полиции, чтобы исключить факторы, которые могут повлиять на непредвзятость прокуроров.
«Если посмотреть на контингент заключенных в США, то можно отметить, что цветных мужчин и женщин больше, чем белых», — говорит окружной прокурор Сан-Франциско Джордж Гаскон.
Увидев то же имя подозреваемого, например, Эрнандес, следователи сразу могут сделать вывод, что человек имеет латиноамериканское происхождение, а это в свою очередь может повлиять на результат и выводы расследования.
Отмечается, что в 2017 году по просьбе окружного прокурора, в Сан-Франциско исследовали статистику по уголовным делам. Выяснилось, что за период с 2008 по 2014 год, 41% арестов приходился на афроамериканцев. При этом они составляли лишь 6% от общего числа населения. Аналитики тогда заключили, что в решениях судов есть «существенные расовые и этнические различия».
Гаскон пояснил, что сначала прокурорам предстоит изучить полицейские отчеты, обработанные системой, и на их основании вынести решение об обвинении. Затем они смогут просмотреть полный отчет со всеми именами и данными, чтобы определить, есть ли в деле смягчающие обстоятельства.
В настоящее время судебная система в Сан-Франциско использует гораздо более ограниченную процедуру ручной фильтрации отчетности, направленную на то, чтобы прокуроры не видели этой информации. Но как правило из отчета удаляются только первые страницы, где содержатся общие данные о подозреваемом. В самом же отчете информация о человеке остается, поэтому от такой выборки нет никакого практического толка.
«Нам необходимо было подключить к этой работе технологии машинного обучения», — комментирует Гаскон.
По его словам, подобная практика использования искусственного интеллекта в США будет применяться впервые. Гаскон также отметил, что не знает ни одного правоохранительного агентства, которое ранее уже использовало ИИ для тех же целей. Он также добавил, что сначала технологию протестируют в его офисе. Затем, если она покажет хороший результат, ее бесплатно предоставят всем прокурорам страны.
Систему разработали программисты-аналитики и инженеры из лаборатории вычислительной политики Стэндфордского университета. По словам одного из авторов разработки Алекса Чоклас-Вуда, она представляет собой небольшое веб-приложение, использующее несколько алгоритмов машинного обучения, которые автоматически редактируют полицейские отчеты, отмечая определенные слова и заменяя их нейтральными: «место», «офицер 1», «подозреваемый» и так далее.
По материалам hi-news