Слишком умен. Почему люди боятся восстания искусственного интеллекта
Опасения "крестного отца" искусственного интеллекта, письмо бизнесменов и исследователей о рисках ИИ и закон ЕС, что значительно ограничивает использование чатов и MidJourney стали противовесом восторженным возгласам о ИИ-прорыве. "ДС" разбирается, стоит ли бояться того, что искусственный интеллект захватит мир
Джеффри Хинтон: почему "крестный отец ИИ" сожалеет о деле своей жизни
Джеффри Хинтон называют одним из пионеров искусственного интеллекта. Более 10 лет назад он разработал математическую основу для систем распознавания, а после продолжения исследований создал AI-компанию, которую впоследствии купила Google. Именно его разработки легли в основу ChatGPT, Google Bard и других чатботов.
В 2018 году Хинтон получил премию имени Алана Тьюринга "за концептуальные и инженерные прорывы, которые сделали глубинные нейросети краеугольным компонентом в вычислительной технике". Однако уже через пять лет ученый уволился из Google и в своем интервью The New York Times выразил обеспокоенность тем, какие опасности ожидает человечество при условии активного развития искусственного интеллекта.
"Трудно понять, как можно помешать плохим игрокам использовать искусственный интеллект для плохих вещей", — комментирует свои опасения Джеффри Хинтон.
Хинтон сказал, что он сожалеет, что достиг таких успехов в деле своей жизни и добавил: "Я утешаю себя обычным оправданием: если бы я не сделал этого, сделал бы кто-нибудь другой".
Более детальный разговор с Джеффри Хинтоном опубликовало издание MIT Technology Review. "Я внезапно изменил свои взгляды на то, будут ли эти существа умнее нас. Я думаю, что сейчас они очень близки к этому, и в будущем они будут гораздо умнее нас", — говорит он. "Как мы это переживем? Мы знаем, что многие люди, желающие использовать эти инструменты, являются плохими игроками, такими как Путин или ДеСантис. Они хотят использовать их для побед в войнах или манипулирования электоратом".
Вспомнил Хинтон и войну в Украине: "Не стоит думать, что Путин не будет делать гиперумных роботов, чтобы убивать украинцев. Если бы он это мог сделать, он не колебался бы. И если он захочет, чтобы они умели это делать, он не будет хотеть управлять ими – он заинтересован в том, чтобы они сами понимали, как это делать".
Совершенные фейки и потеря работы
Помимо использования ИИ диктаторами в войнах и уничтожении других наций, Джеффри Хинтон назвал и другие проблемы, среди них распространение фейков и потеря рабочих мест.
Хинтон убежден, что благодаря ChatGPT и аналогам интернет очень быстро будет переполнен фейковым контентом, из-за чего "обычные люди не узнают, где правда".
Опасения исследователя уже сегодня становятся реальностью. Недавно исследователи из организации NewsGuard обнаружили бот-сеть сайтов, контент которых был создан чат-ботами вроде ChatGPT. На Amazon уже продаются десятки книг, написанных чат-ботами, очевидно, без указания того, что это результат автоматизированного труда.
Эксперты уверены, что когда искусственный интеллект придет в социальные сети, он будет способен создать там наиболее влиятельных и убедительных инфлюэнсеров, а в сочетании с цифровыми людьми эти инструменты смогут продвинуть любой нужный товар или идею. А обычные люди не будут даже подозревать, что их мыслями и выбором манипулируют.
Не меньшей проблемой популярности искусственного интеллекта эксперты считают то, что многие потеряют свою работу. Как ни странно, этот процесс начался с музыкальной индустрии – искусственный интеллект создает музыку и записывает песни, которые неотличимы от настоящих.
Недавно Spotify сообщил об удалении десятков тысяч музыкальных треков, сгенерированных ИИ и размещенных на платформе. По некоторым данным, в определенный момент их количество составило 7% от общего объема контента, доступного на Spotify.
Некоторые эксперты уверены, что искусственный интеллект заменит даже такие, казалось бы, устойчивые бизнесы как консалтинговые агентства.
Другие риски и угрозы искусственного интеллекта
Издание Axios обратилось к экспертам по искусственному интеллекту с просьбой поделиться своими наиболее вероятными опасениями по ИИ.
В списке рисков фигурировали дезинформация и манипуляции с помощью нее и еще несколько угроз:
- Кибератаки – они могут оказаться значительно опаснее из-за совершенного вредоносного кода, созданного искусственным интеллектом
- Мошенничество – идеально написанные фишинговые письма, содержащие убедительные фразы или фальшивые голоса родственников во время голосовых звонков в мессенджерах. Приблизительно так выглядит будущее цифрового мошенничества, к которому приобщился искусственный интеллект.
- Массовое наблюдение – множество камер наблюдения, оснащенных функциями распознавания – это реальность, в которой мы живем сегодня. Если к распознаванию и анализу приобщить искусственный интеллект, человек практически не сможет укрыться в современном городе – AI-инструменты смогут точно знать его пребывание в любой момент времени.
Правозащитная организация Fair Tails в этот список добавляет новые риски – по мнению ее экспертов, искусственный интеллект усилит расизм и дискриминацию меньшинств.
Зато новые эксперименты говорят о более серьезном влиянии искусственного интеллекта и развитии человечества. К примеру, исследование, о котором рассказывает The Wall Street Journal, показало, что написание произведений и эссе с помощью ШИ-инструментов рисковано манипулированием мнениями людей и подталкиванием их к определенным точкам зрения, что в результате вытекает из-за убеждений участников эксперимента.
Нужно ли остановить развитие искусственного интеллекта
Американский технологический эксперт Кейси Ньютон убежден, что необходимо прекратить разработку искусственного интеллекта, инвестировать гораздо больше денег в исследование безопасности и предотвратить дальнейшее его коммерческое развитие, пока мы не разработаем стратегию, чтобы избежать худших сценариев применения этой технологии.
К его мнению приобщаются авторы открытого письма из организации Future of Life. Среди подписавших его – Илон Маск, Стив Возняк, Яян Таллин (основатель Skype), Тристан Харрис (основатель Time Well Spent), многие исследователи, ученые, бизнесмены. Авторы письма убеждены в необходимости приостановить развитие искусственного интеллекта и изучить все риски и их проявления.
Опасения экспертов опасностям ИИ недавно отразились в определенных юридических оговорках – в ЕС приняли первый в мире законопроект, регулирующий использование искусственного интеллекта. Среди явных запретов – жесткие ограничения по функциям распознавания, социальному скорингу и право людей отказываться от ситуации, когда с их данными будут работать инструменты искусственного интеллекта.
Действительно ли мы все обречены?
Наиболее пессимистический путь развития искусственного интеллекта описал в своей книге "Супер интеллект. Стратегии и опасности развития умных машин" шведский философ Ник Бостром. Он описывает несколько сценариев, суть которых заключается в том, что при создании суперинтеллекта, то есть такого, способности и умения которого превышают интеллект человека, большой вероятностью является уничтожение человечества.
По мнению ученого, есть несколько путей этой катастрофы. Ее может вызвать ложная реализация команд для искусственного интеллекта (ложно сформулированные команды, которые искусственный интеллект воспримет неверно или слишком буквально) или инфраструктурное угнетение (ситуация, когда ИИ будет использовать всю существующую инфраструктуру для реализации своей цели, даже если эта цель так банальна, как, к примеру, изготовление миллиона канцелярских скрепок). Третьим возможным сценарием, наиболее сложным для предсказания, может стать восприятие ИИ как инструмента, обладающего моральными качествами или гуманизмом и использующего их в своих решениях. Отсутствие таких норм и оговорок в работе ИШ может быть очень опасным не только для определенных аспектов жизни конкретного человека, но и для существования и развития человечества в целом.
Именно это подразумевают бизнесмены, исследователи по типу Джеффри Хинтона и ученые, которые предупреждают об опасности искусственного интеллекта.
Несмотря на восприятие их как чудаков или даже юродивых, опасения этих людей не напрасны. Проблема в том, что мы увидим их претворение в жизнь тогда, когда сделать что-то с негативными сценариями развития искусственного интеллекта будет слишком поздно.