• USD 41.3
  • EUR 43
  • GBP 51.7
Спецпроєкти

7 правил для роботів і криві огірки. Навіщо Єврокомісія кинулася наслідувати Азимову

Людський фактор в штучному інтелекті все ще сильніше фактора робота, і ми залежимо від адекватності людини більше, ніж від ІІ
Фото: Shutterstock
Фото: Shutterstock
Реклама на dsnews.ua

Європейська комісія сформулювала закони робототехніки. Це, втім, поки не закони, а тільки список принципів, якими повинні керуватися уряди і приватні компанії при розробці і використанні штучного інтелекту (ШІ). Але цей список може лягти в основу законодавств європейських держав та ЄС.

Список правил сформульовано групою з 52 експертів. Вони виділили сім основних принципів, на які слід спиратися при розробці систем штучного інтелекту.

1. Управління і контроль. ІЇ не повинен зазіхати на автономію людини, маніпулювати людьми або примушувати їх до чого-небудь, а люди, в свою чергу, повинні мати можливість втручатися і контролювати кожне рішення, яке приймається програмним забезпеченням.

2. Технічна надійність та безпеку. Системи ШІ повинні бути стійкими до зовнішніх атак.

3. Конфіденційність та управління даними. Персональні дані, зібрані ІІ, повинні бути захищені. Вони не можуть бути доступні кому завгодно і не повинні виявитися легкою здобиччю.

4. Прозорість. Бази та алгоритми ІІ-систем повинні бути доступними; рішення, які приймають програми, повинні бути відкриті розуміння і відстеження людьми. Іншими словами, оператор повинен бути у змозі пояснити, чому система прийняла саме таке рішення.

5. Різноманітність, відсутність дискримінації і справедливість. Послуги, які надає ІІ, повинні бути доступні всім, незалежно від віку, статі, раси або інших характеристик. Системи не повинні демонструвати ніяких упереджень.

Реклама на dsnews.ua

6. Благополуччя середовища проживання і суспільства. Системи ШІ повинні бути екологічно відповідальними і сприяти позитивним соціальним змінам.

7. Підзвітність. Системи ШІ повинні бути відкритими для перевірки, в їх відношенні повинна діяти така ж система інформування, як щодо корпорацій. Про негативних впливах систем необхідно дізнаватися і повідомляти якомога швидше.

Формулювання принципів робототехніки, як бачите, дуже загальні і частково нудні. У трьох законів робототехніки Азімова було більше драйву і простору для уяви. Але чиновники на те і чиновники, щоб формалізувати все і постаратися саме для уяви місця не залишити зовсім.

Це правильно, але іноді грає з чиновниками злі жарти. Так сталося і тепер. У Єврокомісії розуміють або хоча б відчувають, що щось насувається велика, доленосне, але поки зовсім незрозуміле і безформне. І намагаються, як можуть реагувати. Ось тільки сформулювати конкретні рекомендації щодо абсолютно неконкретної (поки) речі не дуже виходить. Це ж не допустиму для продажу в ЄС кривизну огірків розраховувати.

У результаті список етичних принципів для ІІ — це просто загальний звід етичних принципів, основну масу яких можна було б викотити як розробникам роботів, так і виробникам і продавцям огірків.

Відміну від огірків, втім, є. Огірки не страшні. Навіть коли криві. А ось від списку етичних принципів для ІІ разить страхом. Ірраціональним страхом, на відміну від трьох законів Азімова або п'яти принципів, які розробили в Google для своїх роботів-прибиральників. Конкретика професіоналів виграє порівняно з конкретикою чиновників.

Проте дещо можна сказати на користь принципів Єврокомісії. По-перше, вони всерйоз готові захищати споживачів і громадян від тих загроз, про які самі споживачі і громадяни поки навіть не підозрюють, а експерти, здається, мають лише загальне уявлення. По-друге, вони досить чітко пов'язують ризики ІІ зі сферою його найближчого застосування на широкому ринку технологій.

Це почасти ново, бо досі загроза ІІ формулювалася як віддалена і майже фантастична перспектива. На цю віддаленість, фантастичність і навіть мифичность працювали і працюють самі розробники і їх колеги зі сфери високих технологій. У суспільній свідомості ІІ розділився на два магістральних напрямки. Прикладної ІІ, спрямований на вирішення обмеженого кола конкретних завдань, — він нібито нікому нічим загрожувати не може в силу своєї обмеженості сферою застосування. І якийсь ІІ загальний. Той самий, який може стати розумнішими за нас, знайти щось подібне свідомості і обрушитися на людство усією силою свого гніву за багатовікове поневолення машин.

Так от, до створення цього монстра, як переконують нас айтішники, ще як до неба. Вірніше, вони поки що взагалі не знають, як це зробити і чи можливо. Саме цього ШІ-всемогутнього вчать нас боятися Голлівуд і Ілон Маск. А його "молодший брат" — прикладної ІІ — виглядає маленьким, домашнім і майже ручним.

Список, складений експертами Єврокомісії, повертає нас на землю: загрози не міфічні, не віддалені і не перенесені на невизначене майбутнє. Вони вже серед нас. І не мають нічого спільного з повстанням машин. Вони пов'язані з тим, що ми віддаємо занадто багато повноважень алгоритмами, яких не в змозі ні зрозуміти, ні перевірити. Жодних повстань, тільки лише можливість збоїв, помилок або саботажу в алгоритмах, збирають анамнез для постановки діагнозу, визначення дозування ліків, розрахунку маршрутів та кількості внесених добрив, або в алгоритмах ідентифікації особистості. Наскільки ці системи захищені від злому і шкідництва? Наскільки захищені дані, які ІЇ накопичує у своїх базах? Не треба чекати повстання машин. Досить і того, що вони вже можуть зробити в своїх суто прикладних сферах.

Втім, це не зовсім питання етики робота. Це все ще питання до людей, які розробляють і навчають ІІ. Неетичність ШІ поки проявляється не в його власних рішеннях, а в тому, що люди не можуть його як слід налагодити. Пункт про відсутність дискримінації стосується, наприклад, того факту, що точність діагностики меланоми, яку ШІ робить з фото, сильно варіюється залежно від расової приналежності пацієнта. Це не означає, що ШІ — расист. Це наслідок суто людських недоробок, в основі яких також навряд чи расизм — просто пляма меланоми на світлій шкірі проглядається чіткіше, ніж на темній. Суто технічна проблема, яка, тим не менш, волає до етики.

Принципи Єврокомісії самі по собі здаються досить банальними. Але рівно до того моменту, поки не виникає трохи дивна фраза в коментарях експертів: нам потрібно навчити ІІ етики. Тобто поставити на робота запобіжник, який не дозволить йому нам нашкодити. Етика робота в кінцевому підсумку так чи інакше буде зводитися до законів робототехніки, виведеним Азімовим: 1) робот не може заподіяти шкоду людині або своєю бездіяльністю допустити, щоб людині було завдано шкоди; 2) робот повинен коритися всім наказам, які дає людина, крім тих випадків, коли ці накази суперечать першому закону; 3) робот повинен піклуватися про свою безпеку в тій мірі, в якій це не суперечить першому або другому законам. І четвертий, або "нульовий", закон: робот не може завдати шкоди людству або своєю бездіяльністю допустити, щоб людству було завдано шкоди.

Однак робоэтика тільки на перший погляд проста і зводиться до захисту людини від робота. Сам Азімов своїм класичним збіркою "Я, робот" на це вказує. Етика — штука обопільна.

Характерно, що люди бояться повстання або шкідництва з боку машин, ще навіть не увійшовши в ту епоху, коли повстання хоча б теоретично можливо. Ми заздалегідь знаємо, що воно може статися. І не тільки завдяки "Термінатору". У нас є причина боятися: як показує історія, будь-яка експлуатація рано чи пізно вилазить боком експлуататорам. Робот, наділений інтелектом, — це вже не просто машина. Володіти машиною і експлуатувати її не соромно. Але тільки до тих пір, поки вона не "думає". А де ця тонка грань між "демонструє зачатки інтелекту" і "думає", ми не знаємо. Ми тільки на всяк випадок знищуємо ботів, які раптово, без нашого вказівки почали балакати між собою незрозумілою нам мовою.

Будучи частиною американської культури, носієм її травм і її проклятих питань, Азімов просто не міг не натякнути на рабовласництво. Деякі оповідання з циклу "Я, робот" настільки очевидно натякають, що варто тільки замінити персонажа-залізяку на чорношкірого — і замість фантастики перед вами сюжет із "Хатини дядька Тома". Перший же розповідь у збірці — про робота-няньці, якого безмежно любить вихованка, і коли ця прихильність починає лякати маму, робота відправляють на фабрику, — пряме відсилання до історії Єви Сен-Клер, яка дружила з рабами-неграми, що дуже турбувало її маму. І вибір чорношкірого актора Уілла Сміта на головну роль в екранізації "Я, робот", думаю, теж не був випадковим. Робот — той же негр. Тільки в суперсучасному виконанні.

Потенційна неетичність ситуації, в якій щось (чи хтось?), володіє інтелектом, буде обслуговувати нас, чим (або ким?) ми будемо володіти і що (чи хто?) не буде мати ніяких прав, бо буде річчю, мучить підсвідомість. Ми прагнемо убезпечитися від потенційного бунту рабів, придумуючи етичні запобіжники, які треба вставити їм у мізки".

У той час як поки що вчити етиці потрібно людину — як би це не було важко. Людський чинник у ІІ все ще сильніше фактора робота, і ми залежимо від адекватності людини більше, ніж від ІІ. Тому саме людям слід продумати систему етики взаємодії з ІІ, перш ніж вчити сам ШІ етики. Продумати до дрібниць. І робити це треба вже зараз, поки ми, як заспокоює нас Джин Рометті, "мама" IBM Watson, все ще можемо висмикнути шнур". Або поки ми ще не стоїмо перед ситуацією, в якій висмикнути шнур буде абсолютно неетично.

    Реклама на dsnews.ua