Скасувати повстання машин. Чого бояться Маск і Хокінг
Засновник таких гігантів, як SpaceX і Tesla, Ілон Маск на зустрічі Національної асоціації губернаторів США знову підняв питання гонки створення штучного інтелекту. Бізнесмен, який своєю стезею обрав технології і все, що з ними пов'язано, входить в число людей, які вірять у загрозу для людства ІІ. Навіть більше, Маск, чиї Falcon 9 вже сідають на морські платформи, вважає його "самим великому ризиком, з яким ми стикаємося як цивілізація".
Він закликає серйозно зайнятися превентивними, захисними заходами. Інакше буде пізно. За словами підприємця, дуже ймовірно, що поки все не побачать, як роботи йдуть по вулиці, вбиваючи людей, ніхто навіть ворушитися не буде. Але не залишає надії і котрий рік намагається достукатися і до наукового співтовариства, і до урядів, і до суспільства. І він не є вовком-одинаком в цьому питанні.
Здавалося б, Маск - представник тієї жменьки мрійників, які прискорюють прогрес на Землі, молиться на колонізацію Марса і пригощає людство карколомними інноваціями поряд з Google, Apple та ін. Не лицемірство так боятися ІІ? Аж ніяк. Як раз саме тому, що засновник SpaceX говорить про це як персона, що належить до "колу посвячених", слід прийняти його думку до уваги. Маск - не панікер, не релігійний фанатик, а людина з раціональним складом розуму і широкими поглядами. Як і британський фізик-теоретик Стівен Хокінг, як і співзасновник Apple Стів Возняк, і багато інших світлі уми планети.
Було б безглуздо заперечувати, що постіндустріальна епоха (принаймні у країнах Заходу) вже підійшла до кінця, змінившись цифровий і підготувавшись до трансгуманизму. Також немає сенсу спростовувати внесок мрійників і провісників, в число яких входять і письменники-футурологи, і Мак, і багато вчених. До речі, щодо останньої категорії. Одним з найбільш відомих - "нострадамус" є виходець з Квінса Реймонд Курцвейл, який зараз є техдиректором програм штучного інтелекту Google. Він дав визначення технічної сингулярності - неймовірно швидкому розвитку науки і техніки на базі потужного ІІ. І за своє життя озвучив чимало прогнозів, які збуваються. Причому продовжує складати план майбутнього".
Так, він говорив, що вже до 2019 р. людина буде взаємодіяти з комп'ютерами не з клавіатури, а за допомогою мови і жестів. І це з часом зітре різницю між людиною і комп'ютером. Очевидно, що його прогноз вже збувається. І таке "спілкування" є доробком до подальшої інтеграції ІІ в життя людини на більш високих рівнях. Знову ж Курцвейл в 2005-му висловив думку, що вже в 2099 р. людство вивчить мозок вздовж і впоперек і процес мислення людини і машини не буде мати відмінностей. Відповідно, це призведе до рівних прав ШІ і людей. Далі - більше: учений вірить, що систем штучного інтелекту стане більше, ніж власне людей на планеті, а ми почнемо спілкуватися з ними, так би мовити, внутрішньому каналу - за допомогою імплантатів в мозку. Однак Курцвейл також вважає, що ШІ буде поважати прабатьків, незважаючи на всі недоліки.
Але до цього часу ще багато води витече. Це раз. Два - ризики в процесі становлення. Перехідний період між різними станами, як правило, без належного регулювання та контролю нестабільний. І сьогодні дуже багато хто в науковому світі не поділяють стурбованість тих же Маска і Хокінга. Вони вважають, що засновник Tesla нібито занадто захоплюється науковою фантастикою. Тобто більшість зациклюється на SiFi-складову питання, на банальному повстання машин. Однак британський фізик-теоретик або "батько" Tesla акцентують в першу чергу увагу, наприклад, на більш приземлені речі - доступності озброєнь, що базуються на ШІ.
Їх тривоги поділяють і в ООН. У доповіді 2016 р. за результатами зустрічі в Женеві 2015 р. говориться про небезпеку використання терористами сучасних технологій, а точніше, автономних летальних озброєнь. Експерти вказували на бойових дронів, без яких вже важко уявити сучасні конфлікти. І вони справедливо вважають, що терористи не будуть дотримуватися правил, втім, як і деякі країни. А це свідчить на користь жорсткого контролю над такими системами з боку людини. В ООН також вказали, що розробкою автономного зброї сьогодні активно займаються США, Китай, Ізраїль, Південна Корея, Росія і Великобританія.
У 2015 р. більше тисячі вчених в галузі робототехніки та технологій попереджали в листі, що така зброя буде широко використовуватися в найближчі кілька років, а не десятиліть. Дослідники констатували нову гонку озброєнь, яка може перетворити автономне зброю в автомат Калашникова. Одним з них був, наприклад, Стів Возняк. Однак він також вважає, що сам по собі ІЇ як окрема істота або щось на зразок того не представляє загрози. Іншими словами, один з творців Apple, спираючись на закон Мура, не вірить у створення штучного інтелекту, здатного мислити як людина. Але це питання розвитку штучного інтелекту в майбутньому.
А на перших порах небезпека таїться не скільки у власних потенційних можливостях ШІ, але в вразливості таких систем до дій другої сторони і використання їх в тих чи інших цілях. Втручання росіян в президентські вибори США і хвиля наступних кібератак виразно показали новий рівень ведення воєн різних рівнів і напрямів. Тобто це не тільки гібридна війна Кремля, але і промисловий та економічний шпигунство, наприклад. Фактично захисні механізми не встигають за загальним цифровим прогресом.
"Роботи можуть почати війну, випускаючи фейкові новини та прес-релізи, підроблюючи облікові записи електронної пошти та маніпулюючи інформацією. Перо сильніше меча", - резонно зауважив Маск, закликавши присутніх повірити йому, адже бізнесмен має доступ до самого передового штучного інтелекту. "ШІ - той рідкісний випадок, коли нам необхідно бути активним в питаннях регулювання", підкреслив він.
По суті ІІ - медаль має дві оборотні боку, повинна мати широке ребро, щоб у разі необхідності зберегти баланс для внесення певних коригувань. Саме до цього закликає Маск. Та й Він теж постійно про це говорить. Зокрема, в інтерв'ю The Times, фізик говорив про необхідність державного контролю над технологіями, щоб запобігти знищення людської раси. "Із зародження цивілізації агресія була корисною, оскільки вона має певні переваги для виживання", - зазначив він, підкресливши, що нині ця агресія може призвести до ядерної або біологічній війні. І тому, на його думку, потрібно створити "деяку форму світового уряду". Він допускає, що такий уряд може перетворитися в тиранію, але і вірить, що людина з викликом впорається. А ось з ШІ, який буде керуватися більш прямолінійними життєвими правилами, розібратися складніше.
Отже. Сьогодні прихильники контролю ІІ говорять не про зупинку прогресу, а закликають пригальмувати, щоб створити захист - своєрідні чотири закони робототехніки Айзека Азімова (їх три: наприкінці життя письменник створив ще один, більш глобальний). По-друге, мова йде також не про втілення в життя сценарію популярної серії фільмів "Термінатор", а про те, як одна людина може звернути ІІ проти іншого, а також про те, щоб нівелювати всілякі помилки. Без цього, хто знає, може насправді футурологічний песимізм зразок роману Роберта Хайнлайна "Місяць - сувора господиня" стане об'єктивною реальністю років через 50-100.