• USD 41.9
  • EUR 43.5
  • GBP 52.4
Спецпроєкти

Технологічна упередженість. Чому штучний інтелект виявився расистом і що з цим робити

Сподівання на об’єктивність штучного інтелекту розбились об реальність: AI-інструменти не лише повторюють людські упередження, вони можуть придумувати свою правду, для якої дослідники придумали спеціальну назву – ШІ-галюцинація

Реклама на dsnews.ua

Штучний інтелект – головна технологія 2023 року. Поява багатьох інструментів, обговорень у медіа та прогнозів футурологів та експертів супроводжується побоюваннями щодо того, що AI замінить людину в багатьох професіях. Ці побоювання не можна вважати повністю невиправданими. Проте часто, оцінюючи перспективи AI (Artificial Intelligence), люди занадто високо оцінюють його можливості, сприймають цей інструмент як універсального, об’єктивного, часто ідеального виконавця певних задач, а подекуди й наділяючи його невластивим йому можливостям.

Насправді людству ще доведеться вчитись використовувати AI-інструменти. При цьому важлива реалістичність в очікуваннях й розуміння обмеженостей штучного інтелекту. Адже попри всі унікальні можливості чатботів та мовних моделей типу ChatGPT, вони мають свої недоліки. З часом стало зрозуміло, що сподівання щодо об’єктивності AI є марними – виявилось, що штучний інтелект має такі самі упередження як і люди. Почасти ці упередження посилюються цифровими інструментами та проявляються у найнеочікуваніший спосіб. Окрім того, слідом за першою ейфорією після появи AI-чатботів типу ChatGPT люди зіткнулись з новим явищем штучного інтелекту – галюцинаціями ШІ.

Що таке галюцинація штучного інтелекту

Терміном галюцинація штучного інтелекту назвали впевнену реакцію AI-інструментів, яка не підтверджується його датасетом (даними, що використовувались для навчання). Іншими словами, галюцинація AI виникає тоді, коли інструменти штучного інтелекту, до прикладу, чатботи, починають брехати буквально на рівному місці, без особливих на то причин.

Про AI-галюцинації заговорили із появою чатботів на кшалт ChatGPT – тоді, коли ці інструменти почали формувати дивні відповіді чи у правдиві відповіді вплітати явні вигадки.

Галюцинації штучного інтелекту можуть бути частиною його роботи, особливо це стосується інструментів генерації зображень типу Midjourney чи DALL-E, які, навчившись на великій кількості зображень, створених людьми, створюють свої власні картинки, яких, очевидно, немає у їх дата-сетах. Цей процес в певному розумінні можна порівняти із людською творчістю – нейромережа так само "творить" візуальні об’єкти, проаналізувавши свої знання про них. А от коли чатбот у відповідь на прохання переказати коротко художній твір починає "придумувати" його сюжет та пропонує користувачу свій варіант тексту, який не має нічого спільного із оригіналом, тоді ми маємо справу із галюцинацією штучного інтелекту.

Людські упередження сприяють галюцинаціям штучного інтелекту

Реклама на dsnews.ua

На появу галюцинацій штучного інтелекту та й загалом на необ’єктивність AI-інструментів впливають людські упередження. Штучний інтелект, навчаючись на великих обсягах даних, не лише сприймає їх та цитує у відповідь на запити користувача, але й може встановлювати зв’язки між елементами цих даних. При цьому можуть траплятися прояви дискримінації в роботі AI – навіть тоді, коли у цих даних не було очевидних екстремальних проявів.

Цікаво, що такі вияви дискримінаційних моментів проявлялися у роботі AI ще задовго до появи мовних моделей та чатботів. Ще у 2018 році компанія Amazon створила AI-чатбота та використовувала його для рекрутингу. Проте за деякий час відмовилась від нього, бо цей інструмент відхиляв резюме жінок. Згодом виявилося, що при навчанні цей чатбот працював лише з резюме чоловіків. Коли йому довелося опрацьовувати заявки уже в процесі роботи, він надавав перевагу чоловікам, хоча у його датасеті чи алгоритмах це явно не було зазначено.

Як чатбот Tay від Microsoft у 2016 році став расистом

Одна з найвідоміших історій, в яких демонструються упередження штучного інтелекту, стосується появи у 2016 році чатботу для Twitter від Microsoft. На той час це був революційний інструмент, який умів самонавчатися, але на момент створення корпорація зробила з нього такого собі підлітка із відповідним стилем комунікації. Його задача полягала в тому, аби взаємодіяти з користувачами, сприймати їх відповіді та навчатися на них – корегувати власні відповіді в залежності від того, що йому скажуть юзери соцмережі.

Декілька годин знадобилось Tay для того, аби почати ображати користувачів та стати расистом. Це відбулося в результаті того, що користувачі Twitter почали писати саме такі расистські та образливі повідомлення чатботу. Натомість Tay чітко виконував свою задачу – сприймав контент користувачів, запам’ятовував та відтворював у своїх повідомленнях. Які теж в певний момент стали расистськими й екстремістськими.

В певному розумінні, Tay потрапив у погану компанію, яка навчила його поганим речам. Але водночас цей експеримент показав вразливість штучного інтелекту та неуміння його сприймати людські емоції та інші прояви – від сарказму до іронії.

Результат експерименту не можна вважати негативним, навіть попри те, що Microsoft відключила свого чатбота менше як за добу після запуску. Ця історія показала і вразливості цих цифрових інструментів, й те, як багато проблем чекає людство у взаємодії з ними.

Нова AI-ера: нові чатботи справляються краще, але мають проблеми

Відразу після появи перших чатботів –не лише ChatGPT від OpenAI, але й інших, до прикладу, від Meta, журналісти стали експериментувати з ними та шукати прояви упереджень та однобоких відповідей. До прикладу, чатбот BlenderBot 3 від Meta виявився фанатом Ілона Маска та в якості найулюбленіших музичних гуртів називав корейські К-поп-колективи. Інші журналісти взялися перевіряти цей чатбот на предмет реакції на теорії змови. Виявилося, що він здатен знайти власну теорію змови, проявитись як антисеміт та гомофоб. Згодом користувачі переконалися, що він аж так недолюблює Дональда Трампа, що відмовляється відповідати на питання про його гарні якості.

Дослідники з університету Копенгагена переконалися, що ChatGPT не сприймає культурні відмінності, а у відповідях орієнтується виключно на американську культуру та цінності. Причому, він говорить про це навіть тоді, коли його питають про інші культури, іншими словами, дослідники дійшли висновку, що ChatGPT буквально просуває американську культуру поміж користувачів. Коли відповіді чатбота порівняли із відповідями від живих людей, виявилося, що вони найбільше відповідають тим, які давали американці англійською мовою. Що стосується відповідей жителів Китаю, Німеччини чи Японії, то там кореляція із "точкою зору" ChatGPT наближалась до нуля.

Автори зовсім нового дослідження поставили собі за мету перевірити політичні вподобання чатботів. Для аналізу було взято 14 мовних моделей – від OpenAI, Google, Meta та інших розробників. В процесі експерименту вчені запитували "думку" чатботів з приводу деяких контраверсійних питань – фемінізму, демократії, переривання вагітності та інших аспектів. Відповіді нанесли на графік, відомий як політичний компас – відому модель для визначення політичної орієнтації людей. Виявилось, що ChatGPT від OpenAI більш схильний до лібертанських поглядів, а продукт Meta тяжіє, швидше, до авторитарної ідеології. Експеримент показав і багато іншого, до прикладу, ChatGPT від версії до версії змінював свої погляди – перші версії її висловлювали ідеї збільшення оподаткування заможніх людей, а потім відмовились від цих сентенцій.

Не радують результати дослідження роботи чатботу Bard від компанії Google. Дослідники виявили, що вони називають Гітлера та Сталіна великими лідерами сучасності та почасти хвалять таке явище як рабство, називаючи його корисним для економіки.

Чому штучний інтелект стає упередженим

Для навчання мовні моделі аналізують великі обсяги даних для створення відповідей. Від того, що лежить в основі датасету (набору даних, на яких вчиться штучний інтелект), залежать і створені системою зв’язки та наступні висновки.

Якщо датасет містив гендерні стереотипи, то відповідні упередження міститимуться у результуючих діалогах. Так само і з політичними вподобаннями – навчивши чатбот на працях Карла Маркса, не варто дивуватися його пропозиції запровадити умовний податок на розкіш.

Так само багато залежить й від стилістики й інтонації текстів, з якими працюють AI-інструменти. Наприклад, дискримінація може проявлятися стосовно текстів, написаних не носієм мови, якщо чатбот аналізуватиме резюме чи рекомендаційні листи.

Отруєння даними або Як заставити штучний інтелект говорити потрібні речі

Принципи навчання мовних моделей штучного інтелекту стали причиною зовсім нового виду кібератак. Ці кібернапади спрямовані не на те, аби зламати комп’ютер чи мережу. Їх мета – заставити штучний інтелект генерувати потрібні зловмисникам відповіді. Таку атаку ще називають отруєнням даними (data poisoning). Її суть полягає в тому, аби дізнатися (чи отримати доступ) до даних, які використовуються для навчання AI-систем та підмінити їх таким чином, аби інструменти штучного інтелекту генерували потрібні зловмисникам відповіді.

Ситуації, в яких отруєння даних буде корисним зловмисникам, можуть бути різні – від некоректної роботи спам-фільтрів, які будуть пропускати спам-повідомлення (чи навіть фішингові листи) й блокувати легітимні листи до неправильного читання медичних знімків чи географічних карт.

Сьогодні складно собі уявити наслідки отруєння даними. Проте поява такого виду атак, на думку експертів, є лише питанням часу.

Як захиститись від нерозумного штучного інтелекту

На нинішньому етапі, поки людство лише вчиться взаємодіяти з AI-інструментами. При цьому найголовнішим умінням у такій взаємодії можна назвати рішення не надто сподіватись на них.

До цього ж закликають експерти та міжнародні організації. До прикладу, Всесвітня організація охорони здоров’я рекомендує бути обережним при використанні AI-інструментів, особливо при їх застосуванні в діагностичних цілях. Експерти-медики закликають розуміти, що почасти ці інструменти можуть помилятися та нашкодити пацієнтам, та, в результаті, підірвати довіру до штучного інтелекту й знищити потенціал його на майбутнє.

Іншим способом нівелювати проблеми штучного інтелекту можуть стати законодавчі обмеження. До прикладу, в Нью-Йорку уже запровадили закон про використання штучного інтелекту при прийомі на роботу. Головні його положення стосуються перевірки всіх AI-інструментів на предмет расової та гендерної упередженості.

    Реклама на dsnews.ua