Боти проти тролів. Коли в соцмережах забанять всіх користувачів
"Існує безліч інструментів, які можуть допомогти ідентифікувати людей та інституції, які займаються в соцмережах шкідництвом. Але немає єдиної думки про те, як ці інструменти використовувати", - пише Крістофер Мимс The Wall Street Journal.
Хто б міг подумати, що це може статися: за останні кілька тижнів Facebook викрив підроблені акаунти, які носили сліди діяльності російських агентів впливу, президент США звинуватив Twitter в навмисному обмеження видимості твітів консервативних політиків, а Apple, Facebook, YouTube і Pinterest видалили облікові записи і контент, створений конспирологом Алексом Джонсом і його медіаімперією Infowars. Це викликало дискусію про те, чи є заборони, введені технологічними гігантами, боротьбою з фейковими новинами або ж це - обмеження свободи слова.
Так чи інакше, ці суперечки стосуються рішень, прийнятих людьми, але на певному етапі запускаються або нав'язуються алгоритмами. Ці алгоритми базуються на цінностях, сповідуваних компаніями, і те, наскільки важливі для них ліберальні цінності американського суспільства. Враховуючи величезні масштаби послуг, ІТ-гігантів рано чи пізно доведеться перевести свої цінності на мову холодного, жорсткого коду.
Штучний інтелект вже серед нас
Сьогодні існує безліч інструментів для виявлення дезінформації, ботів, підроблених облікових записів, рекламних кампаній, інформаційних бульбашок і когнітивних, соціальних, а також алгоритмічних помилок і забобонів, які спотворюють те, що ми бачимо і чуємо. Тільки немає єдиної думки про те, як використовувати ці інструменти.
Промислові гіганти вже говорять про те, що мають намір впровадити деякі з цих інструментів. Facebook використовує штучний інтелект для оцінки проблемного контенту - від розпалювання ненависті до сигналів про можливе самогубство користувача. Twitter за допомогою ШІ виявляє потенційних садистів, а YouTube блокує доступ до свого веб-сайту терористам.
Незважаючи на ці зусилля учені і люди, що цікавляться політикою, вважають, що необхідні більш активні і, бути може, навіть спільні дії керівництва IT-гігантів. Найоптимістичніший сценарій передбачає, що техногиганты будуть використовувати ці інструменти публічно і прозоро.
Викликайте ботів
Той факт, що інформаційні бульбашки, мова ненависті і дезінформація з боку самих влади повинні контролюватися за допомогою загального набору інструментів, має мало спільного з гнучкістю штучного інтелекту. Скоріше мова про те, що проблеми взаємопов'язані.
Наприклад, що спільного між акаунтами терористів і кампаніями по дезінформації? "І ті й інші можна виявити за допомогою одних і тих же методів", - говорить Хамидреза Альвари, випускник університету арізони, який винайшов метод виявлення шкідливих облікових записів в соціальних мережах.
У той час як більшість методів виявлення шкідливого контенту засновані на фільтруванні записів, яке терористи і дезинформаторы можуть спокійно обійти, алгоритм Алвари шукає облікові записи, які поширюють контент швидше і ширше, ніж інші користувачі. Оскільки саме швидкість і охоплення є метою як вербувальників терористів, так і пропагандистів, метод Алвари може стати передовим на лінії алгоритмічної фільтрації в соціальних мережах. Але все ж саме люди приймають остаточне рішення про видалення вашого облікового запису.
Всі новини з одного джерела
Алгоритми також можуть використовуватись для ідентифікації та втручання в інформаційні бульбашки в соціальних мережах. Справа в тому, що користувачі найчастіше спілкуються з людьми, які поділяють їхні погляди, тому в більшості випадків бачать тільки пости френдів. Так що постає питання про те, як користувачу отримати доступ до різноманітного контенту.
Щоб оцінити ступінь і силу такого міхура, професор Університету інформаційних технологій штату Індіана Філіппо Менчер вивчив, як часто соціальні медіа надають користувачам інформацію з декількох джерел. Виявилося, що "тенденція однорідності" Facebook ще сильніше, ніж упередженість пошукових систем. Останні час від часу все ж відправляють користувачів до джерел, які знаходяться за межами свого "фільтраційного міхура". Twitter в цьому плані виявився гірше, ніж Facebook, а YouTube взагалі опинився в самому низу списку.
IT-гіганти вже налаштовують свої алгоритми так, щоб посилити залученість користувачів. Між тим вивчення тенденції до однорідності джерел інформації і дії, спрямовані на збільшення кількості джерел, могли б стати частиною цього процесу.
Існує також можливість "навчити" штучний інтелект за допомогою так званого глибокого навчання на прикладах відомих випадків ворожого поведінки, щоб ШІ міг ідентифікувати сигнали, які неспроможні помітити люди. Дослідники з університету Гонконгу, Катару і Південної Кореї вже оголосили про успіхи, яких вони досягли завдяки використанню такої технології при виявленні пліток в китайській соцмережі Сіна Вейбо.
Де межа між безпекою та цензурою
Методи видалення шкідливого контенту не ідеальні. Наприклад, алгоритми Twitter не підказували автоматично імена політиків-консервантів, коли користувачі вводили такі запити в пошукову систему. Коли президент Дональд звинуватив Twitter в тому, що той просто таємно баніт консерваторів, компанія заявила, що проблема криється в алгоритмі "поведінкового рейтингу" і пообіцяла поліпшити його.
Але де межа між турботою про якість інформації та цензурою? Сьогодні це одне з головних питань, з якими стикаються всі технологічні гіганти. Глава Facebook Марк Цукерберг нещодавно заявив, що волів би не піддавати цензурі навіть такі гучні заяви, заперечення Голокосту, оскільки у Facebook немає монополії на правду.
Тим не менш Facebook і інші компанії, що працюють в індустрії розповсюдження контенту, кожен день видаляють коментарі або обмежують до них доступ. І часто їх руху здаються хаотичними. Рішення генерального директора Apple Тіма Кука забанити Infowars призвело до аналогічних дій інших технологічних гігантів. Алекс Джонс і його Infowars активно пропагують теорії змови: масове вбивство в школі Sandy Hook в 2012-му називають містифікацією, звинувачують видатних демократів в управлінні глобальною мережею педофілів і т. д.
Як боротися з маніпуляторами
"Одним з рішень може стати створення незалежної, але спонсорується промисловістю організації, яка дозволила б компаніям збирати інформацію про облікові записи, що фінансуються іноземними урядами, і рекламодавців, що поширюють шкідливий вміст, а також надала б інструменти для боротьби", - говорить Джонатан Морган, глава компанії New Знань, яка спеціалізується на захист бізнесу від дезінформації і маніпуляцій в соціальних мережах.
Аналогічна організація, Глобальний інтернет-форум по боротьбі з тероризмом, займається координацією дій проти терористів в інтернеті. Його американські члени, в тому числі міністр внутрішньої безпеки США Кірстен Нільсен і представники рад технологічних гігантів із Силіконової долини, не дуже горять бажанням розширити місію організації боротьбою з кампаніями по дезінформації. На відміну від своїх європейських колег.
Іншою моделлю можуть бути некомерційні центри обміну і аналізу інформації (працюють у таких секторах, як фінансові послуги або дистрибуція електроенергії), які обмінюються інформацією про кіберзагрози. Такий обмін дозволяє вибудувати хорошу систему захисту: жертва нападу може швидко попередити інших.
Морган вважає, що орган, який буде контролювати поведінку в інтернеті, має підтримуватися державою. На зразок того, як Федеральна виборча комісія контролює проведення виборів, а Федеральна комісія по зв'язку вирішує питання ЗМІ.
Проте перешкодою на шляху до цього стає політика. Після заборони Infowars в "основному інтернеті" фани сторінки почали звинувачувати технологічних гігантів в змові: мовляв, ті вирішили заглушити консервативні голосу.
Ніколи в історії дійсність не піддавалася настільки сильному впливу систем, створених таким вузьким колом людей. Логіку алгоритмів, керуючих інтернетом, визначають декілька компаній. Якщо ми вже не можемо жити без створеного ними штучного інтелекту, а їх рішення пов'язані з усім, що важливо для нас - від свободи слова до таємниці волевиявлення, - то варто було б вимагати від IT-корпорацій більшої прозорості. Адже як пояснити, що рішення про цензуру можуть прийматися без мільйонів людей, на які ці рішення безпосередньо впливають?