• USD 41.2
  • EUR 44.8
  • GBP 53.5
Спецпроекты

Технологическая пристрастность. Почему искусственный интеллект оказался расистом и что с этим делать

Надежды на объективность искусственного интеллекта разбились о реальность: AI-инструменты не только повторяют человеческие предубеждения, они могут придумывать свою правду, для которой исследователи вывели специальное название – ИИ-галюцинация

Реклама на dsnews.ua

Искусственный интеллект – главная технология 2023 года. Появление многих инструментов, обсуждений в медиа и прогнозов футурологов и экспертов сопровождается опасениями относительно того, что AI заменит человека во многих профессиях. Эти опасения нельзя считать полностью неоправданными. Однако часто, оценивая перспективы AI (Artificial Intelligence), люди слишком высоко оценивают его возможности, воспринимают этот инструмент как универсального, объективного, часто идеального исполнителя определенных задач, а иногда и наделяя его несвойственными ему возможностями.

На самом деле, человечеству еще придется учиться использовать AI-инструменты. При этом важна реалистичность в ожиданиях и понимание ограниченностей искусственного интеллекта. Ведь при всех уникальных возможностях чатов и языковых моделей типа ChatGPT, они имеют свои недостатки. Со временем стало ясно, что надежды на объективность AI бесполезны – оказалось, что искусственный интеллект имеет такие же предубеждения, как и люди. Отчасти эти предубеждения усиливаются цифровыми инструментами и проявляются самым неожиданным способом. Кроме того, вслед за первой эйфорией после появления AI-чатов типа ChatGPT люди столкнулись с новым явлением искусственного интеллекта – галлюцинациями ИИ.

Что такое галлюцинация искусственного интеллекта

Термином галлюцинация искусственного интеллекта назвали уверенную реакцию AI-инструментов, не подтверждаемую его датасетом (данными, которые использовались для обучения). Другими словами, галлюцинация AI возникает тогда, когда инструменты искусственного интеллекта, например, чатботы, начинают врать буквально на ровном месте, без особых на то причин.

Об AI-галлюцинации заговорили с появлением чатов на манер ChatGPT – тогда, когда эти инструменты начали формировать странные ответы или в правдивые ответы вплетать явные выдумки.

Галлюцинации искусственного интеллекта могут быть частью его работы, особенно это касается инструментов генерации изображений типа Midjourney или DALL-E, которые, научившись на большом количестве изображений, созданных людьми, создают свои собственные картинки, которых, очевидно, нет в их дата-сетах. Этот процесс в определенном смысле сравним с человеческим творчеством – нейросеть так же "творит" визуальные объекты, проанализировав свои знания о них. А вот когда чатбот в ответ на просьбу пересказать коротко художественное произведение начинает "придумывать" его сюжет и предлагает пользователю свой вариант текста, не имеющего ничего общего с оригиналом, тогда мы имеем дело с галлюцинацией искусственного интеллекта.

Человеческие предубеждения способствуют галлюцинациям искусственного интеллекта

Реклама на dsnews.ua

На появление галлюцинаций искусственного интеллекта и вообще на необъективность AI-инструментов влияют человеческие предубеждения. Искусственный интеллект, обучаясь на больших объемах данных, не только воспринимает их и цитирует ответы на запросы пользователя, но и может устанавливать связи между элементами этих данных. При этом могут встречаться проявления дискриминации в работе AI – даже тогда, когда у этих данных не было очевидных экстремальных проявлений.

Интересно, что такие проявления дискриминационных моментов проявлялись в работе AI еще задолго до появления языковых моделей и чатов. Еще в 2018 году компания Amazon создала AI-чатбот и использовала его для рекрутинга. Однако через некоторое время отказалась от него, потому что этот инструмент отвергал резюме женщин. Впоследствии оказалось, что при обучении этот чат работал только с резюме мужчин. Когда ему пришлось прорабатывать заявки уже в процессе работы, он предпочитал мужчин, хотя в его датасете или алгоритмах это явно не было отмечено.

Как чатбот Tay от Microsoft в 2016 году стал расистом

Одна из самых известных историй, в которых демонстрируются предубеждения искусственного интеллекта, касается появления в 2016 году чата для Twitter от Microsoft. К тому времени это был революционный инструмент, который умел самообучаться, но на момент создания корпорация сделала из него подростка с соответствующим стилем коммуникации. Его задача заключалась в том, чтобы взаимодействовать с пользователями, воспринимать их ответы и учиться на них – корректировать собственные ответы в зависимости от того, что ему скажут пользователи соцсети.

Несколько часов понадобилось Tay для того, чтобы начать оскорблять пользователей и стать расистом. Это произошло в результате того, что пользователи Twitter начали писать именно такие расистские и оскорбительные сообщения в чат. Tay четко выполнял свою задачу – воспринимал контент пользователей, запоминал и воспроизводил в своих сообщениях. Которые тоже в определенный момент стали расистскими и экстремистскими.

В известном смысле, Tay попал в плохую компанию, которая научила его плохим вещам. Но в то же время этот эксперимент показал уязвимость искусственного интеллекта и невменяемость его воспринимать человеческие эмоции и другие проявления – от сарказма до иронии.

Результат эксперимента нельзя считать отрицательным, даже несмотря на то, что Microsoft отключила свой чат менее чем через сутки после запуска. Эта история показала и уязвимости этих цифровых инструментов, и то, как много проблем ожидает человечество во взаимодействии с ними.

Новая AI-эра: новые чатботы справляются лучше, но имеют проблемы

Сразу после появления первых чатов – не только ChatGPT от OpenAI, но и других, например, от Meta, журналисты стали экспериментировать с ними и искать проявления предубеждений и однобоких ответов. К примеру, чатбот BlenderBot 3 от Meta оказался фанатом Илона Маска и в качестве любимых музыкальных групп называл корейские К-поп-коллективы. Другие журналисты принялись проверять этот чат на предмет реакции на теории заговора. Оказалось, что он способен найти собственную теорию заговора, проявиться как антисемит и гомофоб. Впоследствии пользователи убедились, что он так недолюбливает Дональда Трампа, что отказывается отвечать на вопрос о его хороших качествах.

Исследователи из Копенгагенского университета убедились, что ChatGPT не воспринимает культурные различия, а в ответах ориентируется исключительно на американскую культуру и ценности. Причем, он говорит об этом даже тогда, когда его спрашивают о других культурах, иными словами, исследователи пришли к выводу, что ChatGPT буквально продвигает американскую культуру среди пользователей. Когда ответы чата сравнили с ответами от живых людей, оказалось, что они больше всего соответствуют тем, которые давали американцы на английском языке. Что касается ответов жителей Китая, Германии или Японии, то корреляция с "точкой зрения" ChatGPT приближалась к нулю.

Авторы совершенно нового исследования задались целью проверить политические предпочтения чатботов. Для анализа было взято 14 языковых моделей – от OpenAI, Google, Meta и других разработчиков. В процессе эксперимента ученые спрашивали "мнение" чатов по поводу некоторых контраверсионных вопросов – феминизма, демократии, прерывания беременности и других аспектов. Ответы были нанесены на график, известный как политический компас – известную модель для определения политической ориентации людей. Оказалось, что ChatGPT от OpenAI более склонен к либертанским взглядам, а продукт Meta тяготеет скорее к авторитарной идеологии. Эксперимент показал и многое другое, например, ChatGPT от версии к версии менял свои взгляды – первые версии ее высказывали идеи увеличения налогообложения состоятельных людей, а затем отказались от этих сентенций.

Не радуют результаты исследования работы чатбота Bard от компании Google. Исследователи обнаружили, что он называет Гитлера и Сталина великими лидерами ХХ века и отчасти хвалит такое явление как рабство, называя его полезным для экономики.

Почему искусственный интеллект становится пристрастным

Для обучения речевые модели анализируют большие объемы данных для создания ответов. От того, что лежит в основе датасета (набор данных, на которых учится искусственный интеллект), зависят и созданные системой связи и последующие выводы.

Если датасет содержал гендерные стереотипы, то соответствующие предубеждения будут содержаться в результирующих диалогах. Так же и с политическими предпочтениями – обучив чатбот на трудах Карла Маркса, не стоит удивляться его предложению ввести условный налог на роскошь.

Так же многое зависит и от стилистики и интонации текстов, с которыми работают AI-инструменты. Например, дискриминация может проявляться в отношении текстов, написанных не носителем языка, если чатбот будет анализировать резюме или рекомендательные письма.

Отравления данными или как заставить искусственный интеллект говорить нужные вещи

Принципы обучения языковым моделям искусственного интеллекта стали причиной совершенно нового вида кибератак. Эти кибернападения направлены не на то, чтобы сломать компьютер или сеть. Их цель – заставить искусственный интеллект генерировать нужные злоумышленникам ответы. Такую атаку еще называют отравлением данными ( data poisoning ). Ее суть состоит в том, чтобы узнать (или получить доступ) к данным, используемым для обучения AI-систем и подменить их таким образом, чтобы инструменты искусственного интеллекта генерировали нужные злоумышленникам ответы.

Ситуации, в которых отравление данных будет полезным злоумышленникам, могут быть разными – от некорректной работы спам-фильтров, которые будут пропускать спам-сообщения (или даже фишинговые письма) и блокировать легитимные письма до неправильного чтения медицинских снимков или географических карт.

Сегодня сложно представить себе последствия отравления данными. Однако появление такого вида атак, по мнению экспертов, только вопрос времени.

Как защититься от неразумного искусственного интеллекта

На нынешнем этапе пока человечество лишь учится взаимодействовать с AI-инструментами. При этом самым главным умением такого взаимодействия можно назвать решение не слишком надеяться на них.

К этому призывают эксперты и международные организации. К примеру, Всемирная организация здравоохранения рекомендует осторожничать при использовании AI-инструментов, особенно при их применении в диагностических целях. Эксперты-медики призывают понимать, что отчасти эти инструменты могут ошибаться и навредить пациентам, и в результате подорвать доверие к искусственному интеллекту и уничтожить потенциал его на будущее.

Другим способом нивелировать проблемы искусственного интеллекта могут стать законодательные ограничения. К примеру, в Нью-Йорке уже был введен закон об использовании искусственного интеллекта при приеме на работу. Главные его положения касаются проверки всех AI-инструментов на предмет расовой и гендерной предвзятости.

    Реклама на dsnews.ua