Бесплатно Экспресс-аудит сайта:

06.10.2023

Искусственный интеллект оказался так себе полицейским

ИИ-алгоритм, прогнозирующий возможные преступления на неделю вперед, за последние несколько лет успело протестировать множество полицейских департаментов США. Некоторые подразделения даже внедрили его в свою работу. Однако новое исследование The Markup и Wired показало, что технология далеко не так эффективна, как ожидалось изначально.

Например, для города Плейнфилд, штат Нью-Джерси, ИИ-предсказатель оказался слишком дорогим и малоэффективным решением. Специалисты проанализировали 23 631 отчет о прогнозах программы Geolitica, ранее известной как PredPol. Анализ информации за период с 25 февраля по 18 декабря 2018 года показал, что точность расчетов составила менее полупроцента.

Изначально ПО Geolitica должно было определять «горячие точки» — районы с повышенным риском преступной активности, на основе глубокого анализа данных.

Капитан Дэвид Гуарино из полицейского департамента Плейнфилда откровенно высказался о неэффективности технологии: «Почему мы приобрели PredPol? Хотели сделать борьбу с преступностью эффективнее. Если бы мы знали, откуда ждать беды, процесс действительно стал бы проще. Но я очень сомневаюсь, что это помогло... Кажется, мы почти не использовали его, если вообще хоть раз прикасались. В итоге было решено от него отказаться».

Принципы работы Predpol уже давно вызывают у специалистов вопросы. Особенно после другого, более раннего исследования, показавшего, что ИИ в основном фокусируется на районах с низким уровнем дохода и представителями этнических меньшинств.

Компания Geolitica пока не прокомментировала результаты исследования. Однако по данным Wired, она планирует прекратить свою деятельность в конце этого года, а часть ее команды уже присоединилась к другой компании в сфере правопорядка.