Deepfake. Чим це загрожує миру і чи можна від нього врятуватися

Заборонити такі системи вже неможливо. Навіть якщо б вдалося виявити і знищити всі до одного, обов'язково з'являться нові
Згенерована нейромережею віртуальна копія Сальвадора Далі. Фото: скріншот

Дипфейк (deepfake) - це те, про що зараз пишуть багато світові видання, - як політичні, так і спеціалізуються на IT. Власне, ця технологія - дивовижний приклад того, як IT ставить на вуха світову політику.

Термін deepfake виник зовсім недавно, менше трьох років тому. Буквально deep fake перекладається як "глибока підробка", проте сенс терміна deepfake, вже вибачте за каламбур, набагато глибше. Deepfake - це фейк, створена не людиною, а штучним інтелектом, які пройшли deep learning - глибоке навчання.

Іншими словами, дипфейк - це такий фейк, який людині (і навіть колективу людей, що професійно займаються фейкотворчеством) створити не під силу. А під силу - лише спеціально створеної для цього нейромережі. Вона тільки тим і займається, що навчається і тренується творити ці підробки. І з кожним разом це виходить у неї все найкраще.

Насамперед такі підробки стосуються відео. Тобто будь-яка людина зможе сісти перед камерою, говорити щось, а тим часом його обличчя буде замінено на обличчя іншої людини, скажімо, якогось відомого діяча. Чим точніше нейромережа вловила особливості міміки оригіналу, тим важче буде відрізнити підробку від реального відеорепортажу.

Звідки взялися дипфейки

Творити дипфейки здатна не кожна нейромережа, а тільки генеративно-змагальна. Термін цього звучить незрозуміло, проте насправді зрозуміти його неважко. Він лаконічно формулює принцип роботи такої нейромережі: вона генерує підробку в процесі змагання.

Суть в тому, що генеративно-змагальна нейромережа складається з двох незалежних нейромереж, які ведуть себе як суперники. Перша навчається генерувати підроблені зображення облич людей, намагаючись добитися повної схожості зі справжніми. А друга вчиться розрізняти справжні та підроблені. У цьому змаганні вони вдосконалюють свої навички. Саме така постійно чальних система і здатна творити дипфейки.

Перша генеративно-змагальна нейромережа була створена в 2014 р. студентом Монреальського університету Яном Гудфеллоу. У 2017-му, коли Яну був 31 рік, видання MIT Technology Review включило її в свій список 35 інноваторів у віці до 35 років. Зараз Гудфеллоу працює в корпорації Apple директором з машинного навчання в групі спеціальних проектів.

Довгий час генеративно-змагальні нейромережі використовувалися тільки у вузькому колі фахівців з штучного інтелекту. Про дипфейках інтернет дізнався в 2017 р., коли на сервісі Reddit стали з'являтися порноролики, в яких особи порноактрис замінили на обличчя зірок. Тоді ж з'явилося саме слово deepfake.

Подібні відео швидко забанили, однак технологія не була забута. Одним з вірусних дипфейк-роликів стало відео, що з'явилося в січні 2019 р., на якому обличчя актриси Дженніфер Лоуренс під час її виступу на врученні премії "Золотий глобус" замінили на обличчя актора Стіва Бушемі.

Воскресіння Сальвадора Дали

Щоб не склалося враження, що ця технологія годиться лише для дурних забав, наведемо приклад її застосування на самому, як кажуть, високому ідейно-художньому рівні. У травні 2019 р. в музеї Сальвадора Далі в Сент-Питерсберге (штат Флорида) до 115-ї річниці від дня народження художника приготували по-справжньому приголомшливий сюрприз - виставку Dalí Lives ("Дали живий").

За словами творців, на цьому заході "мистецтво зустрічає штучний інтелект". Результатом такого незвичайного співпраці стала згенерована нейромережею віртуальна копія художника, яка спілкується з відвідувачами музею, розповідає їм історії про своїх картинах і життя, а також робить селфи. А потім навіть надсилає фотографії на пошту.

Умільців з компанії Goodby Silverstein & Partners знадобилося 6000 фотографій Дали, 1000 годин машинного навчання та 145 відео з актором схожих пропорцій, щоб створити віртуальну копію сюрреаліста, практично не відрізняються від оригіналу. Речі художника сценаристи писали за допомогою численних інтерв'ю і листів Дали, а актор озвучення зумів відтворити унікальний акцент творця, в якому одночасно змішалися англійська, французька та іспанська мови, відзначає The Verge. Всього створено 45 хвилин відеоматеріалу, але з його фрагментів можна скласти тисячі різних комбінацій, завдяки чому кожен відвідувач музею переживає свій власний унікальний досвід спілкування з Дали.

Головне завдання всього дійства - подарувати відвідувачам відчуття єднання з художником. На світі знайдеться мало людей, які не бачили б ні однієї картини відомого сюрреаліста, але от уявити, яким він був людиною, зможе далеко не кожен. Творці виставки вірять, що їх віртуальний Дали допоможе поціновувачам мистецтва провести паралелі між подіями з життя митця і його творами і глибше відчути мотиви художника. Як каже виконавчий директор виставки доктор Хенк Хайн, людям потрібен доступ до мистецтва: "Вони хочуть знайти шлях всередину. Ця технологія дозволить відвідувачам ближче дізнатися видатну особистість художника в додаток до вражаючою колекції його робіт у музеї".

Зброя масової дезінформації

Дипфейки використовують особи не тільки зірок світу культури, але й провідних світових політиків. І це вже не жарти. Ще у квітні 2018 р. привернув увагу до цієї проблеми актор і режисер Джордан Пив. Для більшої наочності він сам виступив у дипфейк-ролику, де під виглядом 44-го президента США Барака Обами застеріг від небезпеки дипфейковых новин. "Ми вступаємо в еру, в якій наші вороги можуть змусити будь-якого сказати що завгодно і коли завгодно", - оголосив дипфейковый "Обама".

Це застереження підтвердилося дуже швидко. Вже в травні 2018 р. в мережі з'явився ролик, в якому президент США Дональд Трамп звертається до жителів Бельгії, закликаючи їх відмовитися визнати Паризькі угоди по кліматичному врегулювання. Відео викликало хвилю обурення в коментарях на адресу американського президента. Однак пізніше з'ясувалося, що Трамп нічого такого не говорив, а саме відео було замовлено бельгійськими соціалістами, щоб привернути увагу до проблеми зміни клімату.

У червні 2019 р. з'явилося відео, де засновник мережі Facebook Марк Цукерберг міркує, як класно володіти даними мільярдів людей. "Той, хто володіє інформацією - володіє майбутнім", - заявив дипфейковый "Цукерберг". Його рухи і міміка настільки реалістичні, що багато людей повірили у справжність ролика. Однак його створили британські художники Білл Постерс і Деніел Хоу спільно з рекламним агентством Canny з допомогою штучного інтелекту, вміє замінювати діалоги у відео. Таким чином художники захотіли привернути увагу до своєї виставці Spectre, яку вони організували, щоб "розкрити секрети цифрового впливу".

Оскільки нейромережі постійно самонавчаються, то дипфейки виходять все більш досконалими. Нинішні можливості цієї технології побачили учасники Всесвітнього економічного форуму в Давосі в січні 2020 р. Презентацію провів директор лабораторії Інституту креативних технологій Університету Південної Каліфорнії професор Хао Лі, який очолює компанію Pinscreen. Він продемонстрував, як можна замінити особа людини, що сидить перед камерою, на будь-яку іншу особу. Зараз він Хао Лі, а через мить - уже футболіст Ліонель Мессі, потім актор Леонардо Дікапріо, актор Уїлл Сміт, 43-й президент США Джордж Буш, екс-прем'єр Великобританії Тереза Мей...

Виглядає це трохи моторошно. З одного боку, можна тільки захоплюватися сучасними технологіями, які дозволяють сканувати особа, на ходу міняти його на інше і видавати нову картинку. На все це витрачаються частки секунди, і система навіть не гальмує. Тобто це дозволяє не просто обробити готове відео і замінити особа, але і брати участь в такому персонажу в якому-небудь живому спілкуванні по відеозв'язку.

З такою технологією, особливо якщо вона буде з відкритим кодом, будь-який бажаючий зможе сісти і записати будь-яке відео. Півбіди, якщо воно просто когось дискредитує або спаплюжить. Набагато гірше, якщо це буде заява, зроблена від імені важливого людини.

Наприклад, записавши ролик довжиною всього 30-40 секунд від імені глави Apple Тіма Кука, можна обрушити мало не всю IT-сферу США. Фондовий ринок отримає такий сильний удар, що це посіє паніку серед інвесторів. В результаті десятки тисяч людей втратять мільярди доларів.

До речі, навряд чи дипфейковый "Тім Кук" затіє це лише заради жарту. Швидше він вдасться до цієї авантюри, щоб заробити на коливаннях вартості цінних паперів (достатньо просто вчасно їх купити і потім продати). І думка про такий спосіб заробітку може прийти не в одну темну голову.

Ситуація може бути і гірше, якщо "жартівник" висловиться від особи лідера великої держави. Звичайно, потім все розкриється, але поки це станеться, можливі всілякі потрясіння - від локальних до глобальних.

Можна уявити і зворотну ситуацію, коли реальний діяч щось скаже, а потім буде всіх запевняти, що його підставили. Як поступати в такому випадку інформагентствам і журналістам, абсолютно незрозуміло, адже перевірити всі в іншому джерелі у них просто не вийде. У підсумку стане взагалі незрозуміло, що в цьому світі є правда, а що брехня.

Втім, жертвами дипфейков можуть виявитися не тільки відомі політики і бізнесмени, але і пересічні громадяни. Наприклад, проти будь-якої людини можуть бути сфабриковані помилкові видеоулики, щоб спихнути на нього чужий злочин. Або ж щоб з ним розправитися, якщо він перейшов дорогу комусь із сильних світу цього.

Гонка озброєнь цифрової епохи

Для тих, хто вважає, що такі системи треба заборонити, є погана новина: це вже неможливо. Навіть якщо б вдалося виявити і знищити всі генеративно-змагальні нейромережі, обов'язково будуть створені нові. Вони почнуть самонавчатися і зможуть творити все більш досконалі дипфейки.

Більш реалістичний спосіб боротьби - шукати надійне протиотруту цієї отрути. Спочатку визначити підробку можна було буквально неозброєним оком. Але незабаром дипфейки досягли рівня, коли для їх викриття вже був необхідний комп'ютер. А зараз розпізнають дипфейки точно так само, як створюють, - за допомогою нейромереж.

Співвідношення сил щодо створення фейкових відеороликів та їх виявленню дуже нагадує давню проблему броні і снаряда. Припустимо, існує броня, яка здатна захистити від сьогоднішніх снарядів, але далі винайдуть снаряд, який подолає цю броню. Потім винайдуть броню, яка впорається з новим снарядом, а за нею - снаряд, який подужає і цю броню. І так далі.

У червні 2019 р. група дослідників з Каліфорнійського університету в Берклі та Університету Південної Каліфорнії представила нову технологію, яка навчилася розпізнавати дипфейки, ґрунтуючись на індивідуальних жестах і манері мови людини. Розробку профінансували Google і DARPA (Агентство передових оборонних дослідницьких проектів Пентагону).

За повідомленням MIT Technology Review, розробники натренировали нейромережа відрізняти унікальні мікрорухи. Приміром, дипфейки поки не в змозі відтворити те, як Трамп знизує плечима, а також часто помиляються з морганням - на згенерованих відео люди деколи взагалі не стуляють очей, а іноді, навпаки, виглядають так, ніби у них нервовий тик.

Точність розпізнавання фальшивих відео склала 92% - це досить непоганий показник. Однак навіть творці не впевнені, що ефект буде довготривалим. Як показує практика, нейромережі, генеруючі підроблені ролики, адаптуються до противоядиям настільки ж успішно, як віруси до вакцин.

Учасником цієї розробки був вже знайомий нам професор Хао Лі. Він взагалі вважає, що все тільки починається. "Ми спостерігаємо гонку озброєнь між цифровими маніпуляціями і здатністю їх розпізнавати. А удосконалення алгоритмів на основі штучного інтелекту - каталізатор обох сторін", - каже професор.

Він припускає, що творцям дипфейков спочатку буде важко адаптуватися до нового протиотруті, але в кінцевому результаті у них це вийде. За його оцінками, для цього буде потрібно лише кілька років.

Але та робота над протиотрутою не зупинилася. У вересні 2019 р. Facebook, Microsoft і ряд інших компаній оголосили конкурс Deepfake Detection Challenge ("Завдання виявлення дипфейков") і виділили на його проведення понад $10 млн. Він повинен завершитися 31 березня 2020 р.

Ця гонка озброєнь між творцями і викривачами дипфейков - нова реальність, яка виникла з початком цифрової ери. Те, що здавалося тільки віртуальною реальністю, вже вторглося в наше життя. Але не варто робити трагедію з цього і впадати в апокаліптичні прогнози. Просто у кожної ери - своя гонка озброєнь. А значить, мають бути і свої способи виживання.