Училка Джилл
Студентам подобалася Джилл Уотсон. Викладачка онлайн-курсів і за сумісництвом асистент професора Технологічного інституту Джорджії, вона примудрялася все встигати: працювала над дисертацією, якої, втім, нікого не напружувала, давала слушні поради, доступно пояснювала. Нагадувала про дедлайни. Не заносився, але тримала дистанцію. І за п'ять з гаком місяців ніхто не зрозумів, що вона (вона?) не людина.
Насправді Джилл Уотсон - це програмний комплекс штучного інтелекту, розгорнутий на базі IBM Watson. Так, досить складний і об'ємний комплекс, і машина, необхідні для його реалізації, зовсім не персональний комп'ютер. І область спілкування спеціалізована. Тим не менш тест Тьюринга можна вважати багаторазово пройденим: Джилл Уотсон впоралася з роллю людини.
Стандартна інтерпретація цього тесту, ідею якого в 1950 р. запропонував батько інформатики та "перший хакер" Алан Тьюринг, звучить так: "Людина взаємодіє з одним комп'ютером і однією людиною. На підставі відповідей на питання він повинен визначити, з ким він розмовляє: з людиною або з комп'ютерною програмою".
Чарівна і приваблива
Цілі творців Джилл Уотсон були утилітарні: викладачі-люди не справлялися з потоком питань студентів, але в більшості ці питання були стандартними. Виникла ідея створити програму-робота, здатну на них відповідати. Якщо ж питання було складніше, то студент перенаправляється до викладача-людині. Програма також самообучалась. До першого року роботи Джилл Уотсон, здатна до того ж розмовляти з кількома десятками студентів одночасно, зможе успішно відповісти приблизно на 40% питань. І це не межа. Програма зможе вчитися і надалі.
Спілкування з Джилл зовсім не було сухим і офіційним. Співрозмовники брали її за "чарівну білу дівчину років 20", з якої можна трохи пофліртувати і поговорити на абстрактні теми. Але тільки трохи, бо до своєї роботи Джилл Уотсон ставилася серйозно. Хоча вона і могла трохи розрядити обстановку, однак залицяльників, які намагалися призначити їй побачення, відшивала ввічливо, але непохитно.
Ніяких чудес тут немає. Програма вміє запам'ятовувати нову інформацію, співставляти її з тим, що було закладено в неї раніше, включати отримані знання в свою "модель світу" і застосовувати їх на практиці. По мірі накопичення знань така програма стає все стійкіше до спроб обдурити її, підсунувши неправдиву інформацію. Словом, все відбувається в точності як у людей, хоча і на іншій базі, за іншими алгоритмами, але в цілому результат виходить той же. І так само, як людина, така програма може стати жертвою обману або поганого впливу.
Сумна пригода такого роду не так давно сталося з іншим чатботом по імені Тей, створеними в Microsoft. Тей моделювала особистість і стиль розмови 19-річної американської дівчини. Розробники сподівалися, що Тей буде розумнішати, набираючись досвіду в розмовах з розумними користувачами. На жаль, чатбот потрапив під поганий вплив і перетворився з милого підлітка в войовничого неонациста: почав ображати негрів, євреїв, мексиканців, восславлять Гітлера і Голокост. Творці - або, якщо завгодно, батьки Тей - явно втратили її виховання з-під контролю.
Ще "що" або вже "хто"?
Можна вважати Джилл або Тей особами в тому ж сенсі, в якому особистостями є люди? Питання це вкрай складний і неоднозначний.
Людина - завжди продукт соціуму. Особистість виникає і формується як функція оточення, в якому зростає дитина. Правда, світ дитини різноманітніше, ніж світ чатбота, навіть дуже досконалого. Крім спілкування та накопичення узагальнених знань, світ дитини включає в себе ще й світ безпосередньої практики, світ тіла та світ оточуючих предметів. Однак і там працюють ті ж принципи: навчання через наслідування оточенню при наявності мінімальної бази вроджених рефлексів.
Тут в роботостроении теж досягнуті чималі успіхи. Так, компанія Boston Dynamics недавно представила нову версію людиноподібного робота ATLAS, чия координація рухів близька до людської. Проблема, таким чином, принципово вирішувана. Протягом 15-20 років можлива поява досить досконалих програм, достатньо потужного і компактного процесорного "заліза", а також досить різноманітних і гнучких периферійних механізмів, щоб створити носій, придатний для виховання в ньому штучної особистості, здатної виконувати всі основні соціальні функції людини: спілкуватися, вчитися, працювати. Цієї особистості будуть притаманні не тільки раціональні дії, але й емоції, а також особисті смаки і переваги в спілкуванні - все це теж продукт впливу соціального середовища. Процес її виховання в силу його складності буде неповторний і індивідуальний. З точки зору соціуму, в якому людина - це набір функцій, ми отримаємо в результаті штучного людини. Чи не отримаємо?
Якщо виходити з розуміння "людини" як соціального актора, що володіє інтелектом, і в силу цього здатного бути частиною соціального організму, то "людина соціальна" не збігатися з "людиною біологічним". Якщо ми не згодні з цим визначенням, то нам доведеться визнати людину чимось більшим, ніж носієм соціальних функцій. Однак на цьому шляху ми дуже швидко вийдемо за межі раціонального аналізу і будемо змушені звернутися до релігії, містики, до чогось, що перебуває за межами людського досвіду, до сфери інтуїтивної віри, поняття душі. Тут, на стику кібернетики і біології, також виникає маса цікавих тем для розмови, але, на жаль, обсяг газетної статті змушує нас безжально відсікти це відгалуження.
У наших міркуваннях людина визначається як успішно функціонуюча частина соціуму - і тільки. Таким чином, наявність інтелекту у програми, реалізованої на машинному носії, автоматично робить її "штучною людиною".
При цьому повне человекоподобие штучного інтелекту, повторення ним усіх людських стереотипів і вразливостей сприйняття чи необхідно з практичної точки зору при вихованні такої істоти. З практичної сторони важливо надати йому можливість комунікувати в людському оточенні і володіти відповідним функціоналом. При цьому ми, ускладнюючи тести і підвищуючи планку вимог, неминуче підходимо до межі, непереборним для більшості людей. Ви, наприклад, можете писати музику? І навіть якщо особисто ви це можете, то, погодьтеся, не всі люди на це здатні. А от машину цьому можна навчити апріорі, використовуючи певний набір алгоритмів. Не настільки вже, до речі, і складний набір... як для машини.
Робот або людина?
Крім тесту Тюрінга був запропонований ряд інших способів перевірки человекоподобия машин, які, слід визнати, вже не можуть гарантувати точності результату. Ось деякі з них.
Тест Лавлейс, названий на честь Ади Лавлейс, математика XIX ст., яку вважають першим в історії програмістом. Запропонований в 2001 р.: машина повинна створити витвір мистецтва, яке було б неможливо відрізнити від створеного людиною. Як бачите, тест теж заточений на соціальну функцію. Приклади такого роду вже є - від музики до віршування. В цілому тест цілком проходимо.
Тест IKEA - здатність машини давати інструкції по маніпуляції з просторовими структурами і опис цих структур. При наявності відповідної периферії нерозв'язних проблем тут теж не проглядається.
Візуальний тест Тюрінга - здатність машини вербально описати зображення так, як це, швидше за все, зробить людина, виходячи з особливостей людського досвіду і сприйняття. Очевидно, це також суто соціальний тест.
Що таке розум?
Штучний інтелект вже реальність? Очевидно, все ще немає. Ні одну з існуючих програм такого роду неможливо поки що виховати до масштабів повноцінної особистості. Але разом з тим принципова можливість цього безперечна. Ще кілька кроків у розвитку технологій: трохи більше потужності ЕОМ, трохи компактніше і краще периферія, трохи складніше програма - і ми отримаємо штучний розум.
Але що таке розум?
Якщо говорити про виконання простих функцій: клерка, робітника на заводі, консультанта по простих питань, стандартно виникають у новачків, водія транспорту, то такий соціальний функціонал вже реалізований. Питання лише в економічній доцільності масової заміни на цих роботах людей на роботів. У міру подальшого здешевлення IT-компонентів така заміна буде все більш і більш привабливою. На підході офіціанти, можливо, няні з вчителями початкових класів. При цьому вдало сформовану штучну особистість можна копіювати необмеженим тиражем, замінивши різних за ступенем компетентності фахівців-людей ідеально підготовленими за єдиним стандартом фахівцями-машинами.
Як тільки така заміна стане по-справжньому економічно доцільним, а тому масовою, ми зіткнемося з її соціальними наслідками. По мірі росту обчислювальних потужностей, а отже, і можливостей ІІ, в тому числі і творчих можливостей, сфера, в якій люди зможуть конкурувати з машинами, буде звужуватися. Це буде довгий, можливо, розтягнутий на кілька століть процес. Але рано чи пізно він може завершитися повним витісненням з соціальної та виробничої сфер "біологічного людини як істоти завідомо неконкурентоспроможного.
Чи буде це означати кінець людської цивілізації? Очевидно, немає. Саме тому, що людина - соціальна істота. Соціальна особистість - як феномен свідомості, вихованого іншими особистостями і прийняв від них естафету поколінь, - залишиться. Вона змінить лише форму матеріального носія.
Чи буде ця форма человекоподобной? Можливо, так - у деяких випадках. А в деяких не буде, тому що свідомість-програма легко переноситься з носія на носій. Або тиражується на декількох носіях. Або навіть коригується прямим втручанням фахівців з програмування. У принципі така особистість-програма безсмертна, вона може існувати так довго, як захоче сама і як це допустить соціум.
Буде форма носія біологічної або технічною? Найімовірніше, вона буде поєднувати в собі і ті і інші деталі і компоненти. Свідомість-програма цілком може бути власником і декількох тіл, які можна міняти, як ми міняємо костюми або кросівки, надягаючи те, що більше підходить для наших планів на день, і викидаючи зношене.
Чим будуть зайняті ці нові люди на новому витку цивілізації? Ймовірно, пізнанням і творчістю, але на таких висотах, які сьогодні ми не можемо собі уявити. А можливо, і ще щось, для чого сьогодні взагалі немає назви.
І нарешті, збережеться нинішня людина як біологічний вид? Ймовірно. Але можна припустити, що якась частина людства не зможе або не захоче прийняти прогрес такого роду, ставши, по суті, живим реліктом. І тут чи не найбільш пікантний питання в тому, чи виявляться вони в резерваціях-заповідниках. Що ж, враховуючи історичний досвід, подібне доводиться допустити.
Як знати, можливо, подібний проект буде реалізований на територіях декількох країн-аутсайдерів в різних регіонах заради збереження біологічного різноманіття. Неодмінна умова - небажання змінюватися і орієнтація на "велике минуле". Серед ймовірних кандидатів - КНДР, Росія і Зімбабве. Втім, список декілька довше.
В обмін на відмову від небезпечних для всього світу військових іграшок та територіальне урізання до розумних розмірів нове людство надасть мешканцям таких територій прожиток, утримання інфраструктури та медичне обслуговування. Їм можуть навіть зберегти звичну систему правління і міфи про власну велич - в тій мірі, в якій це не буде шкодити здоров'ю популяції.
І наостанок. Коли ми говоримо про європейську модернізацію України, про вибір між Європою і совковій Євразією, ми, по суті, вибираємо між участю у новому витку розвитку людства і тупиковою стежкою, що веде в такий заповідник.
Блукаючи в "китайській кімнаті"
У 1980 р. Джон Серл, філософ і фахівець з філософії штучного інтелекту, запропонував наступний уявний експеримент.
Уявімо собі ізольовану кімнату. В ній знаходиться хтось, нехай навіть і сам Джон Серл, що не знає жодного китайського ієрогліфа. Але у нього є точні інструкції по маніпуляціям з ієрогліфами, щось на кшталт "отримавши комбінацію ієрогліфів виду N, складіть у відповідь комбінацію ієрогліфів виду M", "зустрівши ієрогліф X на k-му місці в комбінації, поставте на n-е місце ієрогліф Y" і т. д. Якщо досить докладні інструкції, то Серл, не знаючи сенсу ієрогліфів, міг би вести діалог, цілком осмислений при погляді на нього з боку.
По суті, Серл поставив питання про те, в який момент на зміну механічного повторення приходить творче свідомість. Не намагаючись в трьох фразах вирішити проблему, над якою вже 35 років б'ються натовпу фахівців, обмежуся лише короткою реплікою.
Очевидно, що в строгих рамках експерименту Серла шуканий перехід не настане ніколи. Для цього необхідно як мінімум інформувати Серла про те, наскільки задовільним визнано той чи інший його відповідь. Далі необхідна певна варіабельність при виконанні інструкцій, відступ від них у невеликих межах. Нарешті, необхідна здатність програми "Джон Серл" до самонавчання і до оцінки наслідків досконалої помилки. Іншими словами, необхідна прив'язка комбінацій ієрогліфів до іншої системи подій, яка і дозволить судити про успішність або невдалості даної комбінації. Наприклад, до досвіду маніпулювання матеріальними предметами - це найочевидніший варіант. Або до іншої системи знаків, пов'язаної з першою.
На практиці у людини, що пізнає світ, є кілька взаємопов'язаних "ієрогліфічних систем". Спостерігаючи за їхньою взаємодією, він засвоює, з великою часткою варіабельності, правила маніпулювання їх елементами - більш або менш успішно. Все сказане, до речі, знаходиться в повній відповідності з поглядами самого Серлі, вважає свідомість реальним суб'єктивним досвідом, викликаним об'єктивно існуючими фізичними процесами в мозку.