Училка Джилл
Студентам нравилась Джилл Уотсон. Преподавательница онлайн-курсов и по совместительству ассистентка профессора Технологического института Джорджии, она умудрялась все успевать: работала над диссертацией, которой, впрочем, никого не напрягала, давала дельные советы, доступно объясняла. Напоминала о дедлайнах. Не заносилась, но держала дистанцию. И за пять с лишним месяцев никто не понял, что она (она?) не человек.
В действительности Джилл Уотсон - это программный комплекс искусственного интеллекта, развернутый на базе IBM Watson. Да, весьма сложный и объемный комплекс, и машина, необходимая для его реализации, вовсе не персональный компьютер. И область общения специализированная. Тем не менее тест Тьюринга можно считать многократно пройденным: Джилл Уотсон справилась с ролью человека.
Стандартная интерпретация этого теста, идею которого в 1950 г. предложил отец информатики и "первый хакер" Алан Тьюринг, звучит так: "Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или с компьютерной программой".
Обаятельная и привлекательная
Цели создателей Джилл Уотсон были утилитарны: преподаватели-люди не справлялись с потоком вопросов студентов, но в большинстве эти вопросы были стандартными. Возникла идея создать программу-робота, способную на них отвечать. Если же вопрос был сложнее, то студент перенаправляется к преподавателю-человеку. Программа также самообучалась. К первому году работы Джилл Уотсон, способная к тому же беседовать с несколькими десятками студентов одновременно, сможет успешно ответить примерно на 40% вопросов. И это не предел. Программа сможет учиться и в дальнейшем.
Общение с Джилл вовсе не было сухим и официальным. Собеседники принимали ее за "обаятельную белую девушку лет 20", с которой можно немного пофлиртовать и поболтать на отвлеченные темы. Но только чуть-чуть, потому что к своей работе Джилл Уотсон относилась серьезно. Хотя она и могла немного разрядить обстановку, однако ухажеров, пытавшихся назначить ей свидание, отшивала вежливо, но непреклонно.
Никаких чудес тут нет. Программа умеет запоминать новую информацию, сопоставлять ее с тем, что было заложено в нее раньше, включать полученные знания в свою "модель мира" и применять их на практике. По мере накопления знаний такая программа становится все устойчивее к попыткам обмануть ее, подсунув ложную информацию. Словом, все происходит в точности как у людей, хотя и на иной базе, по иным алгоритмам, но в целом результат получается тот же. И так же, как человек, такая программа может стать жертвой обмана или дурного влияния.
Печальное приключение такого рода не так давно произошло с другим чатботом по имени Тэй, созданным в Microsoft. Тэй моделировала личность и стиль разговора 19-летней американской девушки. Разработчики надеялись, что Тэй будет умнеть, набираясь опыта в разговорах с умными пользователями. Увы, чатбот попал под скверное влияние и превратился из милого подростка в воинствующего неонациста: начал оскорблять негров, евреев, мексиканцев, восславлять Гитлера и Холокост. Создатели - или, если угодно, родители Тэй - явно упустили ее воспитание из-под контроля.
Еще "что" или уже "кто"?
Можно ли считать Джилл или Тэй личностями в том же смысле, в каком личностями являются люди? Вопрос этот крайне сложен и неоднозначен.
Человек - всегда продукт социума. Личность возникает и формируется как функция окружения, в котором растет ребенок. Правда, мир ребенка разнообразнее, чем мир чатбота, даже очень совершенного. Помимо общения и накопления обобщенных знаний, мир ребенка включает в себя еще и мир непосредственной практики, мир тела и мир окружающих предметов. Однако и там работают те же принципы: обучение через подражание окружению при наличии минимальной базы врожденных рефлексов.
Здесь в роботостроении тоже достигнуты немалые успехи. Так, компания Boston Dynamics недавно представила новую версию человекоподобного робота ATLAS, чья координация движений близка к человеческой. Проблема, таким образом, принципиально разрешима. В течение 15-20 лет возможно появление достаточно совершенных программ, достаточно мощного и компактного процессорного "железа", а также довольно разнообразных и гибких периферийных механизмов, чтобы создать носитель, пригодный для воспитания в нем искусственной личности, способной выполнять все основные социальные функции человека: общаться, учиться, работать. Этой личности будут присущи не только рациональные действия, но и эмоции, а также личные вкусы и предпочтения в общении - все это тоже продукт воздействия социальной среды. Процесс ее воспитания в силу его сложности будет неповторим и индивидуален. С точки зрения социума, в котором человек - это набор социальных функций, мы получим в итоге искусственного человека. Или не получим?
Если исходить из понимания "человека" как социального актора, обладающего интеллектом и в силу этого способного быть частью социального организма, то "человек социальный" необязательно должен совпадать с "человеком биологическим". Если мы не согласны с этим определением, то нам придется признать человека чем-то большим, чем носителем социальных функций. Однако на этом пути мы очень быстро выйдем за пределы рационального анализа и вынуждены будем обратиться к религии или мистике, к чему-то, находящемуся за пределами человеческого опыта, к сфере интуитивной веры, понятию души. Здесь, на стыке кибернетики и биологии, также возникает масса интересных тем для разговора, но, увы, объем газетной статьи вынуждает нас безжалостно отсечь это ответвление.
В наших рассуждениях человек определяется как успешно функционирующая часть социума - и только. Таким образом, наличие интеллекта у программы, реализованной на машинном носителе, автоматически делает ее "искусственным человеком".
При этом полное человекоподобие искусственного интеллекта, повторение им всех человеческих стереотипов и уязвимостей восприятия едва ли необходимо с практической точки зрения при воспитании такого существа. С практической стороны важно придать ему способность коммуницировать в человеческом окружении и обладать соответствующим функционалом. При этом мы, усложняя тесты и повышая планку требований, неизбежно подходим к пределу, непреодолимому для большинства людей. Вы, к примеру, можете сочинять музыку? И даже если лично вы это можете, то, согласитесь, не все люди на это способны. А вот машину этому можно научить априори, используя определенный набор алгоритмов. Не столь уж, кстати, и сложный набор... как для машины.
Робот или человек?
Помимо теста Тьюринга был предложен ряд других способов проверки человекоподобия машин, которые, следует признать, уже не могут гарантировать точности результата. Вот некоторые из них.
Тест Лавлейс, названный в честь Ады Лавлейс, математика XIX в., которую считают первым в истории программистом. Предложен в 2001 г.: машина должна создать произведение искусства, которое было бы неотличимо от созданного человеком. Как видите, тест тоже заточен на социальную функцию. Примеры такого рода уже есть - от музыки до стихосложения. В целом тест вполне проходим.
Тест IKEA - способность машины давать инструкции по манипуляции с пространственными структурами и описание этих структур. При наличии соответствующей периферии неразрешимых проблем здесь тоже не просматривается.
Визуальный тест Тьюринга - способность машины вербально описать изображение так, как это, скорее всего, сделает человек, исходя из особенностей человеческого опыта и восприятия. Очевидно, это также чисто социальный тест.
Что такое разум?
Искусственный интеллект уже реальность? Очевидно, все еще нет. Ни одну из существующих программ такого рода невозможно пока что воспитать до масштабов полноценной личности. Но вместе с тем принципиальная возможность этого бесспорна. Еще несколько шагов в развитии технологий: чуть больше мощности ЭВМ, чуть компактнее и лучше периферия, чуть сложнее программа - и мы получим искусственный разум.
Но что такое разум?
Если говорить о выполнении простых социальных функций: клерка, рабочего на заводе, консультанта по простым вопросам, стандартно возникающим у новичков, водителя транспорта, то такой социальный функционал уже реализован. Вопрос лишь в экономической целесообразности массовой замены на этих работах людей на роботов. По мере дальнейшего удешевления IT-компонентов такая замена будет все более и более привлекательной. На подходе официанты, возможно, няни с учителями начальных классов. При этом удачно сформированную искусственную личность можно копировать неограниченным тиражом, заменив разных по степени компетентности специалистов-людей идеально подготовленными по единому стандарту специалистами-машинами.
Как только такая замена станет по-настоящему экономически целесообразной, а потому массовой, мы столкнемся с ее социальными последствиями. По мере роста вычислительных мощностей, а следовательно, и возможностей ИИ, в том числе и творческих возможностей, сфера, в которой люди смогут конкурировать с машинами, будет сужаться. Это будет долгий, возможно, растянутый на несколько веков процесс. Но рано или поздно он может завершиться полным вытеснением из социальной и производственной сфер "биологического человека" как существа заведомо неконкурентоспособного.
Будет ли это означать конец человеческой цивилизации? Очевидно, нет. Именно потому, что человек - социальное существо. Социальная личность - как феномен сознания, воспитанного другими личностями и принявшего от них эстафету поколений, - останется. Она сменит лишь форму материального носителя.
Будет ли эта форма человекоподобной? Возможно, да - в некоторых случаях. А в некоторых не будет, потому что сознание-программа легко переносится с носителя на носитель. Или тиражируется на нескольких носителях. Или даже корректируется прямым вмешательством специалистов по программированию. В принципе такая личность-программа бессмертна, она может существовать так долго, как захочет сама и как это допустит социум.
Будет ли форма носителя биологической или технической? Вероятнее всего, она будет сочетать в себе и те и другие детали и компоненты. Сознание-программа вполне может быть владельцем и нескольких тел, которые можно менять, как мы меняем костюмы или кроссовки, надевая то, что больше подходит для наших планов на день, и выбрасывая изношенное.
Чем будут заняты эти новые люди на новом витке цивилизации? Вероятно, познанием и творчеством, но на таких высотах, которые сегодня мы не можем себе представить. А возможно, и чем-то еще, для чего сегодня вообще нет названия.
И наконец, сохранится ли нынешний человек как биологический вид? Вероятно. Но можно предположить, что какая-то часть человечества не сможет либо не захочет принять прогресс такого рода, став, по сути, живым реликтом. И здесь едва ли не самый пикантный вопрос в том, окажутся ли они в резервациях-заповедниках. Что ж, учитывая исторический опыт, подобное приходится допустить.
Как знать, возможно, подобный проект будет реализован на территориях нескольких стран-аутсайдеров в разных регионах ради сохранения биологического многообразия. Непременное условие - нежелание меняться и ориентация на "великое прошлое". Среди вероятных кандидатов - КНДР, Россия и Зимбабве. Впрочем, список несколько длиннее.
В обмен на отказ от опасных для всего мира военных игрушек и территориальное урезание до разумных размеров новое человечество предоставит обитателям таких территорий пропитание, содержание инфраструктуры и медицинское обслуживание. Им могут даже сохранить привычную систему правления и мифы о собственном величии - в той мере, в какой это не будет вредить здоровью популяции.
И напоследок. Когда мы говорим о европейской модернизации Украины, о выборе между Европой и совковой Евразией, мы, по сути, выбираем между участием в новом витке развития человечества и тупиковой тропинкой, ведущей в такой заповедник.
Блуждая в "китайской комнате"
В 1980 г. Джон Серл, философ и специалист по философии искусственного интеллекта, предложил следующий мысленный эксперимент.
Представим себе изолированную комнату. В ней находится некто, пусть даже и сам Джон Серл, не знающий ни одного китайского иероглифа. Но у него есть точные инструкции по манипуляциям с иероглифами, что-то вроде "получив комбинацию иероглифов вида N, составьте в ответ комбинацию иероглифов вида M", "встретив иероглиф X на k-м месте в комбинации, поставьте на n-е место иероглиф Y" и т. д. Если инструкции достаточно подробны, то Серл, не зная смысла иероглифов, мог бы вести диалог, вполне осмысленный при взгляде на него со стороны.
По сути, Серл поставил вопрос о том, в какой момент на смену механическому повторению приходит творческое сознание. Не пытаясь в трех фразах решить проблему, над которой уже 35 лет бьются толпы специалистов, ограничусь лишь короткой репликой.
Очевидно, что в строгих рамках эксперимента Серла искомый переход не наступит никогда. Для этого необходимо как минимум информировать Серла о том, насколько удовлетворительным сочтен тот или иной его ответ. Далее необходима некоторая вариабельность при выполнении инструкций, отступление от них в небольших пределах. Наконец, необходима способность программы "Джон Серл" к самообучению и к оценке последствий совершенной ошибки. Иными словами, необходима привязка комбинаций иероглифов к другой системе событий, которая и позволит судить об удачности или неудачности данной комбинации. Например, к опыту манипулирования материальными предметами - это самый очевидный вариант. Или к другой системе знаков, связанной с первой.
На практике у человека, познающего мир, имеется несколько взаимосвязанных "иероглифических систем". Наблюдая за их взаимодействием, он и усваивает, с большой долей вариабельности, правила манипулирования их элементами - более или менее успешно. Все сказанное, к слову, находится в полном соответствии с взглядами самого Серла, считающего сознание реальным субъективным опытом, вызванным объективно существующими физическими процессами в мозге.