Ваша комп’ютерна честь. Кого засудить штучний інтелект в українських судах
Ідеї замінити суддів алгоритмами несуть переваги через відсутність упереджень, але й мають значні ризики
Судова реформа – одна з тих, яка так і не була вирішена українською владою. Про корумпованість роботи суддів складають легенди. Тому ідея Михайла Федорова про використання штучного інтелекту в роботі судів виглядає доречно. Принаймні на перший погляд.
Його бажання вирішити проблему українського судочинства цифровим шляхом зрозуміле. І навіть можна збагнути ідею застосувати для вирішення цієї проблеми сучасні технологічні рішення, які, за задумом, будуть максимально неупередженими, на відміну від українських суддів. Пов’язку на очах Феміди бажають замінити нейронною мережею, яка навчиться на сотнях тисяч судових справ та винесених вироків, в результаті чого буде об’єктивно виносити вироки, не зважаючи при цьому на пом’якшувальні обставини, якими, у випадку України, можуть бути причетність до влади (пряма чи опосередкована), родичання із багатими людьми чи інші моменти, як то факт дачі хабаря. Проте цей логічний ланцюжок насправді є хибним. Втім, вважати, що штучний інтелект є неупередженим, помилково. Штучний інтелект насправді агрегує всі упередження, які має людство, і використовує їх у набагато більших масштабах.
Як алгоритми намагались запровадити в американських судах
У США з 2014 року намагалися використовувати штучний інтелект в судочинстві. Ці спроби відновили у 2020 році. Алгоритм допомагає суддям з Нью-Йорку з рекомендаціями про те, яких підсудних варто відпустити під заставу, а яких потрібно відправити в тюрму ще на етапі попереднього слідства. Інструмент, який є результатом п’ятирічного проекту вартістю $2,7 млн, було розроблено для використання 200 суддями, які щодня ухвалюють рішення щодо того, чи можна відпустити підозрюваного – чи буде він з’являтися на судові засідання, чи все ж схильний втекти. Багато штатів у США й раніше використовували алгоритми, які б допомагали ухвалювати рішення про звільнення під заставу, класифікувати ув’язнених і винесення вироку засудженим.
Проте проблема цих алгоритмів полягала у їх упередженості. Аналіз показав, що вони часто рекомендували ув’язнення для непропорційної кількості молодих темношкірих і латиноамериканців. Іншими словами, ці алгоритми автоматизували існуючі людські упередження. Алгоритм, розроблений фахівцями з Стенфордського університету, мав на меті усунути ці упередженості. Його необхідність стала зрозумілою після аналізу рішень суддів щодо запобіжних заходів. Як виявилось, одні судді в 90% дозволяли виходити під заставу, у інших цей показник не перевищував 50%. Щоб зменшити цю разючу відмінність, стали використовувати алгоритмізовану систему.
Цим розробкам передували інші експерименти, що поєднували алгоритмічну неупередженість та роботу суддів. Серед них – пілотний проект, запроваджений у 2014 році у Нью-Джерсі. З одного боку, його робота була ефективною – він дозволив зменшити завантаженість в’язниць. Але демографічні показники підсудних, які опинились у в'язниці, залишилися майже такими ж, як і раніше: приблизно 50% темношкірих і біля 30% білих ув’язнених. Подальший аналіз цього інструменту показав, що він працює так само упереджено, як і судді, які зважають на расу чи інші характеристики підозрюваного.
До прикладу, афроамериканка Бріша Борден взяла непристібнутий дитячий велосипед, проїхалась на ньому, та кинула неподалік. Сусіди викликали поліцію і дівчина опинилась у в’язниці за звинуваченням у дрібній крадіжці на суму $80. Майже в той самий час білого чоловіка Вернона Пратера затримали за невелику крадіжку на таку саму суму. На відміну від Бріші, Вернон раніше був засуджений за збройний напад. Проте алгоритмічна система вирішила, що для Бріші існує високий ризик вчинення повторного злочину, а для Вернона він невеликий, то ж Вернон отримав лише попередження. Найцікавіше, що впродовж кількох наступних років Бріша більше не мала стосунку до злочинів, а Пратера було засуджено до 8 років за повторну серйозну крадіжку зі зламом.
Інші постраждалі від упередженості цього алгоритму — Ділан Фаджет та Бернард Паркер. Їх обох заарештували за зберігання кокаїну та марихуани. Проте для афроамериканця Паркера алгоритм встановив високий ризик повторного злочину, а для білого Фаджета – низький. Згодом Фаджета ще тричі арештовували через такі самі випадки. В результаті аналізу роботи цієї судово-алгоритмічної системи на 7 тисячах справ журналісти ProPublica виявили, що система в більшості випадків прогнозує рецидив вчинення злочинів для афроамериканців.
Саме тому ще в 2019 році 27 відомих американських науковців з Гарварду, Прінстона, Колумбійського університету та Массачусетського технологічного інституту опублікували відкритого листа, в якому висловили серйозне занепокоєння практикою алгоритмічної оцінки досудових ризиків щодо людей, яких підозрюють у вчиненні злочинів.
Чому алгоритми в судах діють упереджено
Існує декілька проблем використання алгоритмів у судах. І одна з них – закритість принципів їх роботи. Розробники часто не пояснюють, яким чином працюють ці платформи, посилаючись на захист інтелектуальної власності. Проте суддям та підозрюваним доводиться їм просто вірити, не розуміючи причин, які змусили алгоритми ухвалити те чи інше рішення. Окрім того, досі не прописані механізми того, як діяти, якщо алгоритм помиляється – чи існують способи оскарження його рішення на зразок апеляції щодо рішення суддів
Найбільша складність використання таких автоматизованих систем полягає в тому, що перед тим, як почати роботу, вони навчаються на уже існуючих рішеннях. Їх навчання полягає в пошуку закономірностей, їх аналізі та використанні цих закономірностей. Якщо є хибні закономірності, до прикладу, про те, що афроамериканці частіше вчиняють повторні злочини, то система штучного інтелекту, що використовується в суді, буде всім афроамериканцям приписувати високий ризик повторного злочину, навіть якщо конкретна людина помилково опинилась у залі суду. Іншими словами, системи штучного інтелекту в судочинстві часто автоматизують упередження чи розширюють закономірності на більшу вибірку людей, таким чином перетворюючи в жертв одних та знімаючи відповідальність з інших.
Головний радник з питань політики організації громадських захисників Bronx Defenders Скотт Леві вважає, що алгоритми в судах "кодують структурні нерівності в інструментах. Це особливо згубно, тому що це робиться під прикриттям науки".
Приборкати судовий штучний інтелект
Все частіше різні країни розробляють механізми та закони, які б дозволили вирішити проблеми використання штучного інтелекту в судочинстві. У 2019 році член палати представників США Марк Такано представив "Закон про правосуддя в судових алгоритмах", мета якого – забезпечити захист громадянських прав звинувачуваних у кримінальних справах та врегулювати використання штучного інтелекту в судах.
Ще у 2018 році у Європі було прийнято "Етичну хартію з використання штучного інтелекту в судовій системі", яка описувала основні принципи використання штучного інтелекту в правосудді. В ній окремо зазначається недопустимість будь-якої дискримінації при використанні таких інструментів, а також йдеться про посилений контроль для таких систем.
У 2021 році у ЄС було прийнято нове, набагато жорсткіше рішення щодо використання штучного інтелекту в Європі загалом. Головне положення цього документу: заборона на використання штучного інтелекту в окремих сферах. Для цього планується визначити чотири рівні розвитку для ШІ-технологій і чим вищий рівень розвитку технології, тим більші обмеження для неї будуть застосовуватися. Небезпечними назвали напрямки, де алгоритми зможуть маніпулювати рішеннями людей. А особливо небезпечними сферами використання штучного інтелекту вважаються саме судочинство та правоохоронна діяльність.
Тоді ж, у листопаді 2021 року, десятки правозахисних організацій закликали Європарламент заборонити штучний інтелект у всіх питаннях, пов’язаних із судочинством і профілактикою порушень. Одна з причин такої рекомендації, окрім питань щодо прозорості роботи цих інструментів, – побоювання, що зловживання можливостями ШІ призведе до тотального стеження та порушить право на особисте життя.
В доповіді про розвиток штучного інтелекту, опублікованій уже в травні 2022 року, теж йдеться про глобальні ризики для розвитку цієї технології.
Український досвід
Ідея Михайла Федорова у використанні штучного інтелекту в судочинстві насправді не нова. Дискусії про це ведуться уже понад два роки. У 2020 році міністр юстиції Денис Малюська анонсував запуск "Касандри" — програми з елементами штучного інтелекту, яка працюватиме так, як багато описаних вище американських аналогів: аналізуватиме особу звинувачуваного та даватиме рекомендації щодо вироку чи досудових рішень. Враховуючи успіхи цифровізації, яка до війни рухалась Україною семимильними кроками, навряд чи влада відмовиться від її впровадження. Проте проблеми в самій ідеї алгоритмічних рішень в судочинстві та правоохоронній діяльності в Україні будуть такими ж як у світі – непрозорість алгоритмів, складнощі в оскарженні, ризики глобального стеження і, найголовніше, упередженість та приховані принципи роботи таких систем.
Як ми бачимо, світ загалом і Європа особливо поступово відмовляються від таких інструментів, не дозволяючи алгоритмам ухвалювати рішення там, де потрібна людина та її оцінка ситуації. Яким підходом піде Україна – прогнозувати важко. Хоча на цьому етапі є прекрасна можливість не кидатися в крайнощі алгоритмізації та цифрових інструментів, а вивчити досвід інших країн та вибрати оптимальне для себе рішення.