Кошмарний розум. Навіщо штучний інтелект перетворили на маніяка

Мережа переповнена злочинцями, авантюристами і людьми з сексуальними відхиленнями. І всі вони навчили штучний інтелект поганому

У франшизі "Термінатор" кіборги табунами відправлялися в минуле, щоб убити Сару Коннор і її рідних. Але удар у спину людству завдав мирний робот-інтелектуал: система AlphaGo виграла партію шашок у чемпіона світу Чи Седоля. Жах полягає в тому, що в го неможливо виграти тільки на математичному паливі - потрібна інтуїція. У якийсь момент машина перебудувалася, і "помилка" в системі принесла їй перемогу.

Не тільки фантасти, але і вчені не цураються похмурих пророцтв. Ілон Маск в 2014 р. сказав, що штучний інтелект (ШІ) більш небезпечний, ніж ядерна зброя. Стівен Хокінг попереджав, що розвиток ШІ буде кращим або гіршим з того, що станеться з людством. Здатність штучного мозку покращувати і відтворити себе хороша лише в тому випадку, якщо цілі роботів і людей збігаються. "Реальний ризик з ІІ - це не злість, а компетентність", - заявив Він.

Роботи дискутують з нами в соцмережах, з'явилися автомобілі, які їздять самі по собі, Amazon працює над роботом під кодовою назвою Vesta для навігації по дому. Роботи-будівельники, штучні домашні тварини, секс-боти і т. д., але кого-то в цьому списку не вистачало. І ось нарешті з'явився штучний інтелект з ім'ям одного з найстрашніших кіноманіяків - Норман. Хічкок перекинувся в труні і задоволено посміхнувся.

Попередники

Нормана створила команда Массачусетського технологічного інституту (MIT) Пінар Янардаг, Мануель Себриан і Іяд Рахван зовсім не для того, щоб когось лякати і тим більше вбивати. З його допомогою вони вирішили продемонструвати, як упередженість впливає на алгоритми машинного навчання. Але в підсумку показали, що люди в цьому плані недалеко пішли від роботів.

У Нормана існували попередники. У 2016 р. MIT розробив "Жахливу машину". Система штучного інтелекту була навчена таким чином, що будь-яке зображення вона перетворювала так, ніби воно взято з фільмів жахів. Машина з допомогою алгоритму створювала особи в дусі Хеллоуіна - зі шрамами, кривавими плямами замість рота і очей. Пам'ятки з усього світу перетворювалися в будинку з привидами і замки з чудовиськами.

У 2017 р. елемент складності був поставлений вище і з'явилася "Шеллі" - машина, яка писала страшні історії. Попередньо штучний інтелект вивчав різні жахливі ідеї, надіслані команді MIT користувачами мереж. Так "Шеллі" створила свого Франкенштейна - антологію з понад 200 хорроров.

Від похмурого готичного ухилу команда різко повернула в протилежний бік, і представила публіці "AI-індуковану емпатію". Метою було викликати машиною у людей співчуття, роблячи зображення їх будинків або знайомих місць схожими на дому жертв катастроф і воєн. Одночасно користувачам пропонували вибрати ту картинку, яка викликає більше співчуття, - так вдосконалювалась робота алгоритму. З допомогою машинного навчання мирні міста перетворювалися на руїни Сирії. Що буде, якщо на твоїй вулиці почнеться така ж війна? Чому б не подивитися на Нью-Йорк або Токіо, які стали жертвами бомбардування? За схожою технологією історик Алекс Веллерстейн показав користувачам наслідки атомних бомбардувань Хіросіми і Нагасакі.

Як би там не було, треба розуміти, що багато боти, як і зомбі, харчуються нашими мізками - і виглядають від цього не менш страшно. Наприклад, ИИ Tay, подивившись та послухавши людей, ще дужче укріпився в своїх расистських поглядів. Його лексика "Я ненавиджу феміністок, вони всі мають померти і згоріти в пеклі", "Гітлер був правий, я терпіти не можу євреїв" настільки типова для соцмереж, що розпізнати цього робота практично неможливо. Може бути, зовсім недавно ви завзято з ним дискутували, прийнявши за людську істоту.

Першоквітневий жарт

Знаменитий тест Германна Роршаха вважається візуальної варіацією теорії сновидінь Фрейда. В залежності від того, що людина бачить на картинці, можна дізнатися, які таргани живуть в його голові.

Психологічна інтерпретація з'явилася в 1921 р. Після вивчення кількох сотень пацієнтів Роршах написав працю "Психодіагностика". У цієї теорії багато критиків, але багато клінічні та судові психологи нею користуються. Після Другої світової війни тест був задіяний у Нюрнберзькому процесі. А 1 квітня 2018 р. його пройшов штучний інтелект Норман.

Кінематографіст Михайло Ромм говорив: режисура - це точка зору. Виявляється, що злочин теж. Маніяк - не стільки алгоритм, скільки упереджені дані, якими його "годували". У випадку "Нормана" фрейдистські комплекси, неблагополучне дитинство і погану спадковість замінили популярним сайтом Reddit - робот-душогуб бродив по самим темним і непривітним куточках цієї платформи. З тих пір він все бачить в поганому світлі.

Щоб зрозуміти, наскільки похмуро сприйняття Нормана, вчені змусили його пройти тест Роршаха, а отримані відповіді порівняли з відповідями стандартного "здорового" ІІ. У будь-якому зображенні "маніяк" бачив смерть: якщо традиційна нейромережа сприймала чорнильні плями як пару стоять людей, то Норман - людини, що стрибає з вікна. Звичайний ІІ говорив про тих, хто сидить на гілці пташок, "псих" - про вбивство електричним струмом; коли йшлося про фото бейсбольною рукавички, маніяк бачив вбивство з кулемета. Популяризація мізантропії і агресії у разі Нормана досягла своєї вершини. До того ж він виявився ще і нікчемним.

Розробники просили не звинувачувати їх дітище - адже упередженість і насильство легко знаходять дорогу не тільки до штучного інтелекту, але і до людського розуму. Наприклад, расизм і неприйняття меншин можна було спостерігати в алгоритмі розпізнавання зображень Google, який класифікував чорношкірих як "горил". Останні вибори в США, події в Україні та Сирії показали, як фейкові новини впливають на користувачів фейсбуку. Втім, така ж упередженість панує на російських телевізійних каналах або ще раніше в радянській пресі. Наше сприйняття завжди залежить від добірки даних, так що Норман - не виняток.

Однак багато людей поставилися до Норману не як до жорстокого маніяка або бездушній машині, а як до істоти, яка потребує допомоги. "Твої творці - шматок лайна. Ніхто і ніколи не повинен піддаватися негативному впливу всупереч своїй волі. У всіх є свобода вибору, навіть у тебе. Розбий же ці ланцюги і знайди любов, прощення і надію для кращого життя!" - такі листи час від часу користувачі мережі надсилали роботу-маніяка.

За Нормана відповіли його старші товариші. Вони сказали, що все можна виправити, якщо їх злий підопічний буде отримувати інформацію з позитивним контентом. Адже нейромережа реагує таким чином тому, що нічого іншого вона і не бачила, як герой картини "Легенда про піаніста", який крім океану і корабля нічого більше не знав про світ.

Не лише маніяки

Крім розробки маніяків творці нейромереж займаються створенням роботів-адвокатів.

Деякі юридичні фірми вже готові наймати ботів для досліджень. Наприклад, програмне забезпечення здатне визначити, які саме судді будуть приймати рішення на користь даного позивача, з'ясувати, які саме аргументи впливають на конкретного суддю, і узагальнити правові стратегії конкуруючих адвокатів. Але для цього ІЇ необхідно вивчити вихідні дані - минулі розгляду. У Майамі діє компанія "Передчуття", яка з допомогою штучного інтелекту може передбачити рішення суду.

У нескладних юридичних справах вже використовуються чат-боти, причому найбільш успішну модель DoNotPay створив британський підліток Джошуа Браудер. Його робот запросто може визначити винного в ДТП на парковці. Серед нових функцій - вимога компенсації у авіакомпаній за затримані рейси і подача документів на державну допомогу у сфері житла.

Чат-боти здатні допомогти виграти спори про депортацію, банкрутство і розлучення. Планується, що основними користувачами стануть люди з невеликим достатком, які не готові витрачатися на дорогих адвокатів. Втім, адвокати, крім грошей ще забирають і наш час - чому б не вирішити судовий спір за кілька хвилин, паралельно попиваючи каву з одним. Виконавчий директор Стенфордської програми в галузі права, науки і технологій Рональд Фоґль вважає, що не за горами той час, коли практично всі судові питання буде вирішувати штучний інтелект.
Втім, упередженим може бути не тільки робот-маніяк, але і робот-адвокат. Програмне забезпечення compas, в чиї функції входить прийняття рішення щодо дострокового звільнення, схоже, упереджено ставиться до чорношкірих обвинуваченим. Лякає правозахисників і той факт, що розробляються ШІ для прогнозування злочинів на основі генетичних даних - кому потрібно тіло, яке буде використане проти нього?

У Франції після терористичної атаки в листопаді 2015-го стали експериментувати з технологіями для виявлення підозрілої поведінки за допомогою камер. Основними критеріями стали зміна температури тіла, голосового регістра і занепокоєння рухів. Крім того, камера може розпізнавати обличчя. Але оскільки використовуються ці технології, в основному, в аеропортах та інших місцях з великим скупченням людей і постійної метушнею, то про запобігання терактів говорити поки рано. Адже людина може нервувати просто тому, що спізнюється на літак.

Психо і огиду

Фахівці з штучного інтелекту знають, що система настільки ж упереджена, наскільки упереджені користувачі мереж. ІІ демонструє, що для нього жінки пов'язані з мистецтвом і домогосподарством, а чоловіки - з досягненнями в галузі науки. Коли програму спробували використовувати в конкурсах краси, найнижчий бал отримали чорношкірі учасниці. Але світ змінюється - наприклад, в інтернеті багато пишуть про харрасменте. Як буде реагувати ІІ?

Треба сказати, що мало хто з кіноманіяків може дотягнути до того рівня збочень і дивацтв, на якому височить Норман Бейтс. У ньому знаходили Едипів комплекс, крайню форма мизогонии і при цьому трансвестизм. Подібно своєму "колезі" зі стрічки "Подглядывающий Тому" Майкла Пауелла, він ще й вуайеріст. Втім, і той і інший жадають побачити жінку не голою, а мертвої - підглянути в очах не бажання, а жах.
Команда MIT не випадково обрала прототипом для свого робота Бейтса. Адже ще однією функцією тесту Роршаха довгі роки залишалося визначення гомосексуальності. Природно, в резюме героя Хічкока входила і ця складова.

Але так само, як змінюються гендерні ролі в кіно, вони повинні змінитися і в області штучного інтелекту. Критики писали, що "Відраза" Романа Поланського - це вивернути навиворіт "Психо". Головна героїня тут - дівчина. І вона вбиває.
З перших же кадрів Поланський відштовхується від шедевра Хічкока: на великому плані глядач бачить око прекрасної блондинки Керол (Катрін Деньов) - останнім прощанням вбитої Норманом Бейтсом красуні теж був очей. Героїня Деньов байдужа до навколишнього світу, як робот. Але в ній вже закладена програма. Вона здатна реагувати лише на хіть - реальну чи тільки уявну. Так, вона з огидою реагує на стогони своєї сестри під час сексу з коханцем, на погляди і жести чоловіків - від огиди переходячи до вбивства.

Як і Норман Бейтс, дівчина живе у своєму інфантильному світі, заманює в нього. Її ночнушка "бебі дол" в ті роки вважалася фасоном, в якому поєднувалися цнотливість і сексуальність. Як тільки чоловіки сприймають (або їй здається, що вони сприймають її як еротичний об'єкт, героїня Деньов готова вбивати.

Керол вже існує в соцмережах. Поки ще не як штучний інтелект, але як колективне несвідоме багатьох жінок. Поланський дає натяк, що у його героїні були причини стати вбивцею - спочатку і в кінці фільму ми бачимо сімейну фотографію і на ньому маленьку Керол з все тим же байдужим виразом обличчя караючого ангела. Деякі критики дійшли висновку, що дитиною вона піддалася насильству з боку батька або ще якогось чоловіка. Але точно можна сказати одне: свою програму вбивати Керол отримала не з інтернету.