Алгоритми правосуддя. Як поліцейські та слідчі використовують штучний інтелект

Додаткові "очі" та "вуха", пошук неочевидних зв’язків та профілактика злочинності. Як правоохоронці вчаться використовувати штучний інтелект

Популярність штучного інтелекту привела до використання цієї технології у різних сферах. Діяльність поліції та правоохоронців не стала виключенням. Технології, що базуються на ШІ, обіцяють значно підвищити ефективність роботи поліції. Ці інструменти можуть автоматизувати рутинні завдання, аналізувати великі обсяги даних й допомагати у розслідуваннях, а подекуди навіть прогнозувати майбутні злочини.

Автоматизація рутини – це, мабуть, одна із найпопулярніших сфер використання ШІ в різних галузях. Якщо говорити про спеціальні ШІ-інструменти для поліції, то найголовнішими та найбільш перспективними є ті, які збільшують ресурси полісменів. Ця підтримка полягає, в першу чергу, в тому, аби допомогти поліції чи слідчим проаналізувати ті дані, з якими їм доводиться мати справу. Додаткові "очі" та "вуха", розширені інструменти для аналізу даних та пошуку неочевидних закономірностей, спеціальні системи, що можуть спрогнозувати злочин або потенційно складну ситуацію на вулицях міста – все це уже сьогодні використовують поліцейські в різних країнах світу.

Soze – ШІ-детектив, що має мегамозок

Одним із яскравих прикладів використання штучного інтелекту в роботі поліцейських стала система Soze, яку створили в Австралії та почали використовувати у Великобританії. Її тестування показало, що цей аналізатор поліцейських даних здатен виконати 81 рік детективної роботи всього за 30 годин. Він здатний одночасно аналізувати відеозаписи, фінансові транзакції, соціальні мережі, електронні листи та інші документи, та на основі цього аналізу виявляти неочевидні закономірності та потенційні сліди, які могли бути пропущені під час традиційного аналізу доказів, які робить людина.

Тестування Soze показало, що система може переглянути матеріали у 27 складних справах лише за 30 годин, тоді як для звичайного слідчого на це потрібно було б потратити понад 80 років. Керівники поліції Великобританії, які взяли на озброєння цей сервіс, зазначили, що ця технологія може допомогти закрити деякі з найстаріших нерозкритих справ. Загалом такі інструменти можуть бути особливо корисними для перегляду давніх справ, які обросли великою кількістю документів та доказів.

Soze є лише одним із багатьох новаторських рішень, які зараз впроваджує поліція Великобританії. На допомогу цьому інструменту підуть інші рішення, до прикладу, щодо цифровізації баз даних, наприклад, створення національної бази даних холодної зброї.

Багато рішень, які використовують аналіз даних, уже використовуються в роботі поліції. Деякі з них – це поки рішення обмеженого користування, які нещодавно були створені вченими. До прикладу, іспанські вчені навчили нейромережі виявляти докази, знайдені на місці злочину. Для цього штучний інтелект аналізує детальні фотографії та виявляє неочевидні сліди злочинів.

Окрім цього, завдяки оцифрованим базам даних нейромережі можуть, до прикладу, доволі точно ідентифікувати модель взуття по його відбитку.

Очевидно, що штучний інтелект і інші технології не зможуть стати заміною поліцейським; вони лише допомагають у прийнятті рішень. Натомість штучний розум допоможе поліцейським в їх рутинних задачах.

Поліцейські звіти – за допомогою ШІ-письменника

Рутинні паперові завдання по оформленню документів – це те, що забирає багато часу й відволікає від безпосереднього розслідування злочинів. Компанія 365 Labs з Луїзіани разом із PoliceReports.ai – фірмою, що заснована колишнім поліцейським з Флориди, пропонують рішення, які дозволяють швидко генерувати звіти за допомогою чат-ботів, що обробляють деталі інцидентів і створюють документи.

Основною перевагою таких технологій є їхня здатність значно підвищити ефективність роботи правоохоронців, скорочуючи час, витрачений на паперову роботу. Попри те, що ці розробки уже тестуються окремими поліцейськими відділками, загалом серед фахівців виникають серйозні занепокоєння щодо недоліків цієї технології. Моделі генеративного ШІ, такі як ChatGPT, відомі своїми помилками, галюцинаціями та упередженнями.

Такі неточності можуть призводити до наклепницьких заяв і підсилення упереджень, які можуть проявитися не лише в поліцейських документах. З часом це може виплисти у судових рішеннях – адже саме сфера судочинства теж уже розглядає використання штучного інтелекту в своїй повсякденній роботі.

Прихильники цієї технології стверджують, що автоматизовані звіти зменшать помилки, яких можуть припускатися люди, водночас критики цієї технології наголошують на важливості людського втручання або, принаймні, людської перевірки, аби уникнути помилок. Можливо з часом ці суперечки втіляться у конкретніші політики використання штучного інтелекту в діяльності поліції, та навіть застосування обмежень щодо недопустимості виключно автоматизованих звітів.

Впізнати кожного. Як поліцейські отримали "тисячі очей" за допомогою штучного інтелекту

Використання інструментів розпізнавання обличь – це іще одна технологія, яка допомагає у роботі поліції. Сучасні рішення для розпізнавання часто працюють разом із технологією штучного інтелекту. Саме вона допомагає не лише розпізнавати людей та швидко знаходити в натовпі підозрюваних чи злочинців. А іще аналіз даних за допомогою ШІ в режимі реального часу допомагає побачити й зрозуміти нестандартну ситуацію та навіть спрогнозувати можливі злочини.

Поліція Лондона активно використовує технології розпізнавання обличь в режимі реального часу (LFR — Live Facial Recognition). За цей рік в столиці Великобританії розгорнуто понад 117 "точок" використання цієї технології, що втричі більше, ніж за попередні чотири роки. Згідно з даними, зібраними групою City Hall Greens, ця технологія призвела до більш ніж 360 арештів у 2024 році, включаючи затримання понад 30 підозрюваних у вчиненні сексуальних злочинів.

Попри заяви поліції про ефективність LFR у запобіганні злочинам і виявленні осіб, які давно знаходилися у списках розшукуваних, критики цієї технології, правозахисники та дослідники висловлюють занепокоєння щодо точності роботи системи розпізнавання та можливих упереджень. До прикладу, ця технологія може призводити до расової дискримінації і помилкових арештів через невірну ідентифікацію. Директорка організації Big Brother Watch Сілкі Карло охарактеризувала цю технологію як загрозу приватності, що перетворює людей на постійний об’єкт спостереження.

Натомість представники поліції заявляють, що технологія демонструє 89% точності за результатами тестування, а іще наголошують на тому, що біометричні дані негайно видаляються з поліційних баз, якщо особа не входить до списку спостереження.

В якості контраргументу правозахисники вказують на те, що такі технології можуть використовуватися для контролю та переслідування меншин. Критики підкреслюють відсутність прозорості у процесах формування списків спостереження та ризиків помилкових сповіщень. Тим більше, що у світовій практиці використання систем розпізнавання є неодноразові випадки помилкових арештів невинних людей. До прикладу, американця Алонзо Сойєра помилково заарештували, після чого він провів у тюрмі 9 днів. Чоловіка затримали навіть попри те, що він був вдома в той час, коли було вчинено злочин, в якому його підозрювали. Алонзо був не єдиною жертвою помилкових "алгоритмічних" обвинувачень. Ще у 2022 році аналогічна помилка була здійснена проти Рендала Рейда, якого помилково звинуватили у крадіжці дизайнерських сумок.

Якщо в Лондоні та окремих штатах в США використовують інструменти розпізнавання для виявлення злочинців, то в Південній Кореї пішли дані – там нещодавно запустили систему "Dejaview", яка може аналізувати дані камер відеоспостереження та виявляти злочини до їх скоєння та навіть запобігати їм.

"Dejaview" була розроблена Південнокорейським інститутом електроніки та телекомунікацій (ETRI). Система використовує машинне навчання для вивчення патернів і виявлення ознак можливих злочинів, враховуючи такі фактори, як час доби, місце події та історія інцидентів. Система працює за двома основними напрямками. Перший — це модель прогнозування на основі часу та простору, яка оцінює ризик злочину в певних місцях, спираючись на минулі події. Наприклад, якщо в безлюдному місці раніше стався злочин уночі, система визначає високу ймовірність повторення події.

Другий компонент "Dejaview" — це прогнозування рецидивів, яке зосереджується на особах із "високим ризиком" щодо повторних правопорушень. Система аналізує їхні рухи та поведінку, щоб передбачити можливість скоєння нового злочину.

Технологія була навчена на великому наборі даних із понад 32 тисяч відеозаписів з камер спостереження за три роки. Це дозволило їй розпізнавати патерни і застосовувати отримані знання до реальних ситуацій.

Проте і в цьому випадку із використанням Dejaview викликають етичні питання, пов'язані з контролем за людьми. Поки правоохоронці країни планують обмежити застосування Dejaview лише до об'єктів громадської безпеки, таких як аеропорти та енергетичні підприємства. Натомість за досвідом Південної Кореї уважно спостерігає Аргентина, яка також створила новий підрозділ штучного інтелекту для запобігання та розслідування злочинів.

Між суспільною безпекою та Big Brother

Технології штучного інтелекту в поліції можуть стати потужним інструментом для підвищення безпеки та ефективності роботи правоохоронних органів. Проте їхнє використання потребує ретельного моніторингу та регулювання. В першу чергу, задля того, аби уникнути зловживань і забезпечити дотримання прав людини.

Технології розпізнавання обличчя та системи прогнозування злочинів можуть працювати неточно. Це може призвести до помилкових арештів і дискримінації окремих груп населення. Адже дослідження показують, що системи розпізнавання обличчя часто демонструють упередженість щодо расових або етнічних груп.

Окрім того, активне впровадження таких технологій може призвести до порушень приватності та надмірного контролю з боку держави. То ж уже на цьому етапі тестування ШІ-систем для поліції потрібно подбати, аби той "Big Brother", в якого перетворюються поліцейські, що користуються системами розпізнавання чи прогнозування злочинів, не стали звичним елементом нашого життя.