Прогнозирование домашнего насилия: как и почему полиция обращается за помощью к алгоритмам

Прогнозирование домашнего насилия: как и почему полиция обращается за помощью к алгоритмам

12 января 2023 г.

Домашнее насилие — широко распространенная проблема в США и во всем мире. По данным оценки Всемирной организации здравоохранения, и проблема только усилилась во время пандемии.

Сотрудники правоохранительных органов обращались к различным инструментам, от простых анкет до алгоритмов, чтобы определить приоритетность преступлений с наивысшим риском.

Хотя некоторые исследования признали потенциальные преимущества этих инструментов, они также поставили экспертов в сообществе по борьбе с домашним насилием с вопросами об этичности и эффективности использования технологий для прогнозирования будущих насильственных действий.

Мэтью Бланд, адъюнкт-профессор полицейской деятельности, основанной на доказательствах, в Кембриджском университете, сказал, что существует широкое признание того, что необходимо что-то сделать для улучшения услуг для жертв домашнего насилия, но вопрос о том, как использовать технологии в качестве решения проблемы. для обсуждения.

«Я думаю, что мы все еще довольно поляризованы как сообщество, занимающееся домашним насилием, и на правильном пути», — сказал он.

Диапазон методов

Некоторые инструменты, используемые полицией, фактически представляют собой бумажные анкеты. В Соединенном Королевстве полиция использует относительно простой инструмент под названием DASH, сокращенно от «Домашнее насилие, преследование и насилие на почве чести».

После инцидента полиция опрашивает жертв и суммирует количество ответов «да», чтобы получить классификацию рисков, которая определяет их реакцию.

Хотя эта идея получила наибольшее распространение в Европе, некоторые полицейские в Соединенных Штатах также используйте базовую форму оценки рисков, аналогичную DASH.

Другие системы относительно продвинуты. В 2007 году правительство Испании запустило амбициозный проект по борьбе с домашним насилием с помощью системы под названием VioGén. Его цель состояла в том, чтобы создать централизованную систему для случаев домашнего насилия, которая также могла бы прогнозировать будущие инциденты.

VioGén работает на основе алгоритма, разработанного исследователями на основе того, какие факторы инцидента были связаны с случаями высокого риска в прошлом.

Полиция регистрирует такие детали дела, как угрожал ли агрессор смертью или употреблял наркотики, а VioGén подсчитывает баллы на основе входных данных.

С тех пор VioGén провела миллионы «оценок риска». Шкала ранжирует риск от самого низкого до самого высокого и определяет, как полиция реагирует, в том числе следует ли предъявлять обвинения или предоставлять жертве защиту со стороны полиции.

На сегодняшний день VioGén, вероятно, является самым передовым инструментом прогнозирования домашнего насилия. Согласно отчету Eticas Foundation, некоммерческой группы защиты технологий, изучавшей этот инструмент, на начало 2022 года в системе было зарегистрировано более 670 000 исков.

Эффективность и этика

Эффективны ли инструменты для предотвращения домашнего насилия?

«Это своего рода гигантский слон в комнате, не только в Испании, но и со всеми инструментами оценки рисков», — сказал Хуан Хосе Медина Ариса, исследователь криминалистики из Университета Севильи.

Он сказал, что «на самом деле мы не знаем», улучшат ли эти инструменты в руках полиции их реакцию на насилие в семье.

Исследователи обнаружили, что некоторые относительно простые инструменты, такие как DASH, разочаровывают. Одно исследование 2019 года, проведенное Мединой Аризой и ее коллегами, показало, что система «неэффективна» и «в лучшем случае слабо прогнозирует повторную виктимизацию».

По словам Медины Ариса, опубликованное исследование VioGén было относительно положительным, но оно подверглось критике за то, что его оценили исследователи, которые работают непосредственно над этим инструментом с правительством Испании.

Генеральный директор Eticas Джемма Гальдон заявила, что министерство внутренних дел Испании, разработавшее систему, должно быть более прозрачным.

У полиции есть возможность обойти алгоритм и повысить уровень риска вручную, но в 95 % случаев полицейские следовали алгоритму, согласно отчету Eticas, основанному на ограниченных данных, имеющихся в системе.

По словам Гэлдона, без независимого стороннего аудита общественность не может быть уверена, что такие инструменты, как VioGén, эффективны, а ресурсы доходят до людей, которым они предназначены помочь.

«Когда убивают женщину с низким уровнем риска, министерство не может с уверенностью сказать: «Это анекдот, и система работает», — сказал Галдон. «Это очень, очень, очень тревожно».

Министерство внутренних дел Испании не ответило на запрос о комментариях.

Больше вариантов, больше споров

Некоторые официальные лица и исследователи предложили использовать более интенсивные методы обработки данных. Одна спорная идея: машинное обучение.

Решения VioGén основаны на факторах, заранее определенных исследователями как связанные с насилием — например, наличие у агрессора суицидальных мыслей учитывается в решениях VioGén.

Но инструмент машинного обучения может делать собственные выводы о риске. Такая система могла бы считывать данные полиции о преступлениях и самостоятельно решать, какие дела представляют наибольший риск, на основе таких факторов, как предыдущие аресты и судимости.

Система может даже решить, что случаи из определенных почтовых индексов представляют повышенный риск, поскольку она получает больше сообщений о нарушениях из этих районов.

Несколько исследователи обнаружили, что им удалось улучшить прогнозы простого риска оценки с использованием такой методики.

Но Медина Ариса, которая также опубликовала статью, в которой говорится, что метод машинного обучения может улучшить предсказательную силу Соединенных Инструмент Kingdom DASH, если бы он был реализован, сказал, что использование машинного обучения в борьбе с насилием в семье остается спорным с этической точки зрения.

Этот метод опирается на прошлые данные, чтобы делать прогнозы о будущем, вызывая опасения, что он укрепит прошлые предрассудки, такие как сосредоточение внимания на одной расовой группе.

Например, если алгоритм машинного обучения обучается на данных об арестах, он может предсказывать злоупотребления в группах что полиция несоразмерно арестовывает.

"Мы опасаемся, что мы заменяем действительно неисправные и дискриминационные человеческие системы еще худшими и более непрозрачными техническими системами", – сказал Галдон.

Тем не менее, идея использования машинного обучения для сортировки дел находится в стадии разработки. В прошлом году, например, полиция Квинсленда, Австралия, объявила, что они будут тестировать использование программы машинного обучения, обученной на полицейских данных, для прогнозирования преступников с самым высоким риском домашнего насилия.

Согласно The Guardian, представители полиции заявили, что полицейские будут использовать инструменты, чтобы предсказать, какие случаи будут обостряться, и будут «упреждающе стучать в двери без какого-либо обращения за помощью». Мэтт Адамс, представитель полицейской службы Квинсленда, сообщил The Markup, что судебный процесс был отложен из-за COVID, но полиция продолжает реализацию плана.

Медина Ариса сказал, что, по крайней мере, исследования показали, что методы больших данных лучше предсказывают насилие в семье, чем простейшие оценки рисков.

«Вопрос тогда становится одним из того, нормально ли это? использовать модель машинного обучения, несмотря на все дебаты, которые ведутся об алгоритмической справедливости?» он сказал. «Я думаю, что это все еще очень открытый вопрос».


Автор Колин Лечер

Также опубликовано здесь

Фото Скотта Роджерсона на Unsplash


Оригинал
PREVIOUS ARTICLE
NEXT ARTICLE