Алгоритмы правосудия. Как полицейские и следователи используют искусственный интеллект

Дополнительные "глаза" и "уши", поиск неочевидных связей и профилактика преступности. Как правоохранители учатся использовать искусственный интеллект

Известность искусственного интеллекта привела к использованию этой технологии в разных сферах. Деятельность полиции и правоохранителей не стала исключением. Базирующиеся на ИИ технологии обещают значительно повысить эффективность работы полиции. Эти инструменты могут автоматизировать рутинные задачи, анализировать большие объемы данных и помогать в расследованиях, а иногда даже прогнозировать будущие преступления.

Автоматизация рутины – это, пожалуй, одна из самых популярных сфер использования ИИ в разных отраслях. Если говорить о специальных ИИ-инструментах для полиции, то самыми главными и перспективными являются те, которые увеличивают ресурсы полисменов. Эта поддержка заключается в первую очередь в том, чтобы помочь полиции или следователям проанализировать те данные, с которыми им приходится иметь дело. Дополнительные глаза и уши, расширенные инструменты для анализа данных и поиска неочевидных закономерностей, специальные системы, которые могут спрогнозировать преступление или потенциально сложную ситуацию на улицах города – все это уже сегодня используют полицейские в разных странах мира.

Soze – ИИ-детектив, имеющий мегамозг

Одним из ярких примеров использования искусственного интеллекта в работе полицейских стала система Soze, созданная в Австралии и начавшая использоваться в Великобритании. Ее тестирование показало, что этот анализатор полицейских данных способен выполнить 81 год детективной работы всего за 30 часов. Он способен одновременно анализировать видеозаписи, финансовые транзакции, социальные сети, электронные письма и другие документы и на основе этого анализа выявлять неочевидные закономерности и потенциальные следы, которые могли быть пропущены при традиционном анализе доказательств, которые делает человек.

Тестирование Soze показало, что система может просмотреть материалы по 27 сложным делам всего за 30 часов, тогда как для обычного следователя на это нужно было бы потратить более 80 лет. Взявшие на вооружение этот сервис руководители полиции Великобритании отметили, что эта технология может помочь закрыть некоторые из старейших нераскрытых дел. В целом такие инструменты могут быть особенно полезны для просмотра древних дел, обросших множеством документов и доказательств.

Soze является одним из многих новаторских решений, которые сейчас внедряет полиция Великобритании. На помощь этому инструменту пойдут другие решения, например, по цифровизации баз данных, например, создание национальной базы данных холодного оружия.

Многие решения, использующие анализ данных, уже используются в работе полиции. Некоторые из них – это пока решения ограниченного пользования, недавно созданные учеными. К примеру, испанские ученые научили нейросети выявлять доказательства, найденные с поличным. Для этого искусственный интеллект анализирует подробные фотографии и выявляет неочевидные следы преступлений.

Кроме этого, благодаря оцифрованным базам данных нейросети могут, например, достаточно точно идентифицировать модель обуви по ее оттиску.

Очевидно, что искусственный интеллект и другие технологии не смогут стать заменой полицейским; они только помогают в принятии решений. Искусственный ум поможет полицейским в их рутинных задачах.

Полицейские отчеты – с помощью ИИ-писателя

Рутинные бумажные задания по оформлению документов – это то, что занимает много времени и отвлекает от непосредственного расследования преступлений. Компания 365 Labs из Луизианы вместе с PoliceReports.ai – фирмой, основанной бывшим полицейским из Флориды, предлагают решения, позволяющие быстро генерировать отчеты с помощью чат-ботов, обрабатывающих детали инцидентов и создающих документы.

Основным преимуществом таких технологий является их способность значительно повысить эффективность работы правоохранителей, сокращая время, потраченное на бумажную работу. Несмотря на то, что эти разработки уже тестируются отдельными полицейскими отделениями, среди специалистов возникают серьезные беспокойства относительно недостатков этой технологии. Модели генеративного ИИ, такие как ChatGPT, известны своими ошибками, галлюцинациями и предубеждениями.

Такие неточности могут приводить к клеветническим заявлениям и усилению предубеждений, которые могут проявиться не только в полицейских документах. Со временем это может повлиять на судебные решения – ведь именно сфера судопроизводства тоже уже рассматривает использование искусственного интеллекта в своей повседневной работе.

Сторонники этой технологии утверждают, что автоматизированные отчеты уменьшат ошибки, которые могут допускать люди, в то же время критики этой технологии отмечают важность человеческого вмешательства или, по крайней мере, человеческой проверки, чтобы избежать ошибок. Возможно, со временем эти споры воплотятся в более конкретные политики использования искусственного интеллекта в деятельности полиции, а также применения ограничений по недопустимости исключительно автоматизированных отчетов.

Узнать каждого. Как полицейские получили "тысячи глаз" с помощью искусственного интеллекта.

Использование инструментов распознавания лиц – еще одна технология, которая помогает в работе полиции. Современные решения по распознаванию часто работают вместе с технологией искусственного интеллекта. Именно она помогает не только распознавать людей и быстро находить в толпе подозреваемых или преступников. А еще анализ данных с помощью ИИ в режиме реального времени помогает увидеть и понять нестандартную ситуацию и спрогнозировать возможные преступления.

Полиция Лондона активно использует технологии распознавания лиц в режиме реального времени (LFR – Live Facial Recognition). За этот год в столице Великобритании развернуто более 117 "точек" использования этой технологии, что в три раза больше, чем за предыдущие четыре года. Согласно данным, собранным группой City Hall Greens, эта технология привела к более чем 360 арестам в 2024 году, включая задержание более 30 подозреваемых в совершении сексуальных преступлений.

Несмотря на заявления полиции об эффективности LFR в предотвращении преступлений и выявлении лиц, давно находившихся в списках разыскиваемых, критики этой технологии, правозащитники и исследователи выражают обеспокоенность точностью работы системы распознавания и возможных предубеждений. К примеру, эта технология может приводить к расовой дискриминации и ошибочным арестам из-за неверной идентификации. Директор организации Big Brother Watch Силки Карло охарактеризовала эту технологию как угрозу конфиденциальности, которая превращает людей в постоянный объект наблюдения.

Представители полиции заявляют, что технология демонстрирует 89% точности по результатам тестирования, а еще отмечают, что биометрические данные немедленно удаляются с полицейских баз, если лицо не входит в список наблюдения.

В качестве контраргумента правозащитники указывают, что такие технологии могут использоваться для контроля и преследования меньшинств. Критики подчеркивают отсутствие прозрачности в формировании списков наблюдения и рисков ошибочных уведомлений. Тем более что в мировой практике использования систем распознавания есть неоднократные случаи ложных арестов невиновных людей. К примеру, американца Алонзо Сойера по ошибке арестовали, после чего он провел в тюрьме 9 дней. Мужчину задержали даже, несмотря на то, что он был дома в то время, когда было совершено преступление, в котором его подозревали. Алонзо был не единственной жертвой ошибочных "алгоритмических" обвинений. Еще в 2022 году аналогичная ошибка была совершена против Рэндала Рейда, которого ошибочно обвинили в воровстве дизайнерских сумок.

Если в Лондоне и отдельных штатах в США используются инструменты распознавания для выявления преступников, то в Южной Корее пошли данные – там недавно запустили систему "Dejaview", которая может анализировать данные камер видеонаблюдения и выявлять преступления до их совершения и даже предотвращать их.

"Dejaview" была разработана Южнокорейским институтом электроники и телекоммуникаций (ETRI). Система использует машинное обучение для изучения паттернов и выявления признаков возможных преступлений, учитывая такие факторы как время суток, место происшествия и история инцидентов. Система работает по двум основным направлениям. Первый – это модель прогнозирования на основе времени и пространства, оценивающая риск преступления в определенных местах, опираясь на прошлые события. Например, если в безлюдном месте раньше произошло преступление ночью, система определяет высокую вероятность повторения произошедшего.

Второй компонент "Dejaview" — это прогнозирование рецидивов, которое сосредотачивается на лицах с "высоким риском" относительно повторных правонарушений. Система анализирует их движения и поведение, чтобы предусмотреть возможность совершения нового преступления.

Технология была обучена на большом наборе данных из более чем 32 тысяч видеозаписей с камер наблюдения за три года. Это позволило ей распознавать паттерны и применять полученные знания к реальным ситуациям.

Однако и в этом случае с использованием Dejaview вызывают нравственные вопросы, связанные с контролем за людьми. Пока правоохранители страны планируют ограничить применение Dejaview только к объектам общественной безопасности, таким как аэропорты и энергетические предприятия. За опытом Южной Кореи внимательно наблюдает Аргентина, которая также создала новое подразделение искусственного интеллекта для предотвращения и расследования преступлений.

Между общественной безопасностью и Big Brother

Технологии искусственного интеллекта в полиции могут стать мощным инструментом повышения безопасности и эффективности работы правоохранительных органов. Однако их использование требует тщательного мониторинга и регулирования. В первую очередь, чтобы избежать злоупотреблений и обеспечить соблюдение прав человека.

Технологии распознавания лица и системы прогнозирования преступлений могут работать не точно. Это может привести к ошибочным арестам и дискриминации отдельных групп населения. Ведь исследования показывают, что системы распознавания лица часто демонстрируют пристрастность к расовым или этническим группам.

Кроме того, активное внедрение таких технологий может привести к нарушениям конфиденциальности и чрезмерному контролю со стороны государства. Так что уже на этом этапе тестирования ИИ-систем для полиции нужно позаботиться, чтобы тот "Big Brother", в которого превращаются полицейские, пользующиеся системами распознавания или прогнозирования преступлений, не стали привычным элементом нашей жизни.