• USD 41.2
  • EUR 44.8
  • GBP 53.5
Спецпроєкти

Занадто розумний. Чому люди бояться повстання штучного інтелекту

Побоювання "хрещеного батька" штучного інтелекту, лист бізнесменів та дослідників про ризики ШІ та закон ЄС, що значно обмежує використання чатботів та MidJourney стали противагою захопленим вигукам про ШІ-прорив. "ДС" розбирається, чи варто боятися того, що штучний інтелект захопить світ

Depositphotos
Реклама на dsnews.ua

Джеффрі Хінтон: чому "хрещений батько ШІ" шкодує про справу свого життя

Джеффрі Хінтона називають одним із піонерів штучного інтелекту. Понад 10 років тому він розробив математичну основу для систем розпізнавання, а після продовження досліджень створив AI-компанію, яку згодом купила Google. Саме його розробки лягли в основу ChatGPT, Google Bard та інші чатботів.

У 2018 році Хінтон отримав премію імені Алана Т’юрінга "за концептуальні та інженерні прориви, що зробили глибинні нейромережі наріжним компонентом у обчислювальній техніці". Проте уже за п’ять років вчений звільнився з Google і у своєму інтерв’ю The New York Times висловив занепокоєння щодо того, які небезпеки чекає людство за умови активного розвитку штучного інтелекту.

"Важко зрозуміти, як можна завадити поганим акторам використовувати штучний інтелект для поганих речей", — коментує свої побоювання Джеффрі Хінтон.

Хінтон сказав, що він шкодує, що досяг таких успіхів у справі свого життя та додав: "Я втішаю себе звичайним виправданням: якби я не зробив цього, зробив би хтось інший".

Детальнішу розмову із Джеффрі Хінтоном опублікувало видання MIT Technology Review. "Я раптово змінив свої погляди на те, чи будуть ці істоти розумнішими за нас. Я думаю, що зараз вони дуже близькі до цього, і в майбутньому вони будуть набагато розумнішими за нас", — каже він. "Як ми це переживемо? Ми знаємо, що багато людей, які хочуть використовувати ці інструменти, є поганими акторами, такими як Путін чи ДеСантіс. Вони хочуть використати їх для перемог у війнах або маніпулювання електоратом".

Згадав Хінтон і війну в Україні: "Не варто думати, що Путін не буде робити гіперрозумних роботів, щоб убивати українців. Якби він це міг зробити, він би не вагався. І якщо він захоче, щоб вони вміли це робити, він не бажатиме управляти ними – він зацікавлений в тому, щоб вони самі розуміли, як це робити".

Реклама на dsnews.ua

Досконалі фейки та втрата роботи

Окрім використання ШІ диктаторами у війнах та знищенні інших націй, Джеффрі Хінтон назвав й інші проблеми, серед них – поширення фейків й втрата робочих місць.

Хінтон переконаний, що завдяки ChatGPT та аналогам інтернет дуже швидко буде переповнений фейковим контентом, через що "звичайні люди не знатимуть, де правда".

Побоювання дослідника уже сьогодні стають реальністю. Нещодавно дослідники з організації NewsGuard виявили бот-мережу сайтів, контент яких було створено чат-ботами на кшалт ChatGPT. На Amazon уже продаються десятки книжок, написаних чат-ботами, очевидно, без зазначення того, що це результат автоматизованої праці.

Експерти впевнені, що коли штучний інтелект прийде в соціальні мережі, він буде здатен створити там найбільш впливових та переконливих інфлюенсерів, а в поєднанні із цифровими людьми ці інструменти будуть здатні просунути будь-який потрібний товар чи ідею. А звичайні люди навіть не підозрюватимуть, що їх думками та вибором маніпулюють.

Не меншою проблемою популярності штучного інтелекту експерти вважають те, що багато людей втратять свою роботу. Як не дивно, цей процес розпочався з музичної індустрії – штучний інтелект створює музику та записує пісні, які неможливо відрізнити від справжніх.

Нещодавно Spotify повідомив про видалення десятків тисяч музичних треків, які були згенеровані ШІ та розміщені на платформі. За деякими даними, у певний момент їх кількість склала 7% від загального об’єму контенту, доступного на Spotify.

Деякі експерти переконані, що штучний інтелект замінить навіть такі, здавалося б, стійкі бізнеси як консалтингові агенції.

Інші ризики та загрози штучного інтелекту

Видання Axios звернулось до експертів із штучного інтелекту із проханням поділитися своїми найбільш ймовірними побоюваннями щодо ШІ.

У переліку ризиків фігурували дезінформація та маніпуляції за допомогою неї та іще декілька загроз:

  1. Кібератаки – вони можуть виявитися значно небезпечнішими через досконалий шкідливий код, створений штучним інтелектом
  2. Шахрайство – ідеально написані фішингові листи, що містять переконливі фрази або фальшиві голоси родичів під час голосових дзвінків у месенджерах. Приблизно так виглядає майбутнє цифрового шахрайства, до якого долучився штучний інтелект
  3. Масове спостереження – величезна кількість камер спостереження, оснащених функціями розпізнавання – це реальність, в якій ми живемо сьогодні. Якщо до розпізнавання та аналізу долучити штучний інтелект, людина практично не зможе сховатися у сучасному місті – AI-інструменти зможуть точно знати її перебування в кожний момент часу.

Правозахисна організація Fair Tails до цього переліку додає нові ризики – на думку її експертів, штучний інтелект посилить расизм та дискримінацію меншин.

Натомість нові експерименти говорять про ще серйозніший вплив штучного інтелекту та розвиток людства. До прикладу, дослідження, про яке розповідає The Wall Street Journal, показало, що написання творів та есеїв за допомогою ШІ-інструментів ризиковане маніпулюванням думками людей та підштовхуванням їх до певних точок зору, що в результаті випливає у зміну переконань учасників експерименту.

Чи потрібно зупинити розвиток штучного інтелекту

Американський технологічний експерт Кейсі Ньютон переконаний, що необхідно припинити розробку штучного інтелекту, інвестувати набагато більше грошей у дослідження безпеки та запобігти подальшому його комерційному розвитку, доки ми не розробимо стратегію, щоб уникнути найгірших сценаріїв застосування цієї технології.

До його думки долучаються автори відкритого листа з організації Future of Life. Серед тих, хто його підписали – Ілон Маск, Стів Возняк, Яян Таллінн (засновник Skype), Трістан Харріс (засновник Time Well Spent), багато дослідників, вчених, бізнесменів. Автори листа теж переконані у необхідності призупинити розвиток штучного інтелекту та вивчити всі ризики та їх прояви.

Побоювання експертів небезпекам ШІ нещодавно відобразилися у певних юридичних застереженнях – у ЄС прийняли перший у світі законопроект, який регулює використання штучного інтелекту. Серед явних заборон – жорсткі обмеження стосовно функцій розпізнавання, соціального скорингу та право людей відмовлятися від ситуації, коли з їх даними працюватимуть інструменти штучного інтелекту.

Чи дійсно ми всі приречені?

Найбільш песимістичний шлях розвитку штучного інтелекту описав у своїй книзі "Супер інтелект. Стратегії і небезпеки розвитку розумних машин" шведський філософ Нік Бостром. Він описує декілька сценаріїв, суть яких полягає в тому, що за умови створення суперінтелекту, тобто такого, здібності й уміння якого перевищують інтелект людини, великою імовірністю є знищення людства.

На думку вченого, є декілька шляхів до цієї катастрофи. Її може спричинити хибна реалізація команд для штучного інтелекту (помилково сформульовані команди, які штучний інтелект сприйме невірно або занадто буквально) чи інфраструктурне пригнічення (ситуація, коли ШІ буде використовувати всю існуючу інфраструктуру для реалізації своєї мети, навіть якщо ця мета така банальна, як, до прикладу, виготовлення мільйону канцелярських скріпок). Третім можливим сценарієм, найбільш складним для передбачення, може стати сприйняття ШІ як інструменту, який володіє моральними якостями чи гуманізмом та послуговується ними у своїх рішеннях. Відсутність таких норм та застережень у роботі ІШ може бути дуже небезпечною не лише для певних аспектів життя конкретної людини, але й для існування й розвитку людства загалом.

Саме це мають на увазі бізнесмени, дослідники на кшалт Джеффрі Хінтона та вчені, які попереджають про небезпеку штучного інтелекту.

Попри сприйняття їх як диваків чи навіть юродивих, побоювання цих людей не є марними. Проблема в тому, що ми побачимо їх втілення в життя тоді, коли зробити щось із негативними сценаріями розвитку штучного інтелекту буде занадто пізно.

    Реклама на dsnews.ua