• USD 41.9
  • EUR 43.5
  • GBP 52.4
Спецпроекты

Deepfake. Чем это угрожает миру и можно ли от него спастись

Запретить такие системы уже невозможно. Даже если бы удалось выявить и уничтожить все до одной, обязательно появятся новые
Сгенерированная нейросетью виртуальная копия Сальвадора Дали. Фото: скриншот
Сгенерированная нейросетью виртуальная копия Сальвадора Дали. Фото: скриншот
Реклама на dsnews.ua

Дипфейк (deepfake) - это то, о чем сейчас пишут многие мировые издания, - как политические, так и специализирующиеся на IT. Собственно, эта технология - изумительный пример того, как IT ставит на уши мировую политику.

Термин deepfake возник совсем недавно, менее трех лет назад. Буквально deep fake переводится как "глубокая подделка", однако смысл термина deepfake, уж извините за каламбур, гораздо глубже. Deepfake - это фейк, сотворенный не человеком, а искусственным интеллектом, прошедшим deep learning - глубокое обучение.

Иными словами, дипфейк - это такой фейк, который человеку (и даже коллективу людей, профессионально занимающихся фейкотворчеством) сотворить не под силу. А под силу - только специально созданной для этого нейросети. Она только тем и занимается, что обучается и тренируется творить эти подделки. И с каждым разом это получается у нее все лучше.

Прежде всего такие подделки касаются видео. То есть любой человек сможет сесть перед камерой, говорить что-то, а тем временем его лицо будет заменено на лицо другого человека - скажем, какого-то известного деятеля. Чем точнее нейросеть уловила особенности мимики оригинала, тем труднее будет отличить подделку от реального видеорепортажа.

Откуда взялись дипфейки

Творить дипфейки способна не любая нейросеть, а только генеративно-состязательная. Термин сей звучит заумно, однако на самом деле понять его нетрудно. Он лаконично формулирует принцип работы такой нейросети: она генерирует подделку в процессе состязания.

Суть в том, что генеративно-состязательная нейросеть состоит из двух независимых нейросетей, которые ведут себя как соперники. Первая учится генерировать поддельные изображения лиц людей, стараясь добиться полного сходства с настоящими. А вторая учится различать настоящие и поддельные. В этом состязании они совершенствуют свои навыки. Именно такая постоянно самообучающаяся система и способна творить дипфейки.

Реклама на dsnews.ua

Первая генеративно-состязательная нейросеть была создана в 2014 г. студентом Монреальского университета Яном Гудфеллоу. В 2017-м, когда Яну был 31 год, издание MIT Technology Review включило его в свой список 35 инноваторов в возрасте до 35 лет. Сейчас Гудфеллоу работает в корпорации Apple директором по машинному обучению в группе специальных проектов.

Долгое время генеративно-состязательные нейросети использовались только в узком кругу специалистов по искусственному интеллекту. О дипфейках интернет узнал в 2017 г., когда на сервисе Reddit стали появляться порноролики, в которых лица порноактрис заменили на лица звезд. Тогда же появилось и само слово deepfake.

Подобные видео быстро забанили, однако технология не была забыта. Одним из вирусных дипфейк-роликов стало видео, появившееся в январе 2019 г., на котором лицо актрисы Дженнифер Лоуренс во время ее выступления на вручении премии "Золотой глобус" заменили на лицо актера Стива Бушеми.

Воскрешение Сальвадора Дали

Чтобы не сложилось впечатление, что эта технология годится лишь для дурацких забав, приведем пример ее применения на самом, как говорится, высоком идейно-художественном уровне. В мае 2019 г. в музее Сальвадора Дали в Сент-Питерсберге (штат Флорида) к 115-й годовщине дня рождения художника приготовили по-настоящему впечатляющий сюрприз - выставку Dalí Lives ("Дали жив").

По словам создателей, на этом мероприятии "искусство встречает искусственный интеллект". Результатом столь необычного сотрудничества стала сгенерированная нейросетью виртуальная копия художника, которая общается с посетителями музея, рассказывает им истории о своих картинах и жизни, а также делает селфи. А потом даже присылает фотографии на почту.

Умельцам из компании Goodby Silverstein & Partners потребовалось 6000 фотографий Дали, 1000 часов машинного обучения и 145 видео с актером похожих пропорций, чтобы создать виртуальную копию сюрреалиста, практически не отличимую от оригинала. Речи художника сценаристы писали с помощью многочисленных интервью и писем Дали, а актер озвучки сумел воспроизвести уникальный акцент творца, в котором одновременно смешались английский, французский и испанский языки, отмечает The Verge. Всего создано 45 минут видеоматериала, но из его фрагментов можно составить тысячи различных комбинаций, благодаря чему каждый посетитель музея переживает свой собственный уникальный опыт общения с Дали.

Главная задача всего действа - подарить посетителям чувство единения с художником. На свете найдется мало людей, которые не видели бы ни одной картины известного сюрреалиста, но вот представить, каким он был человеком, сможет далеко не каждый. Создатели выставки верят, что их виртуальный Дали поможет ценителям искусства провести параллели между событиями из жизни творца и его произведениями и глубже прочувствовать мотивы художника. Как говорит исполнительный директор выставки доктор Хэнк Хайн, людям нужен доступ к искусству: "Они хотят найти путь внутрь. Эта технология позволит посетителям ближе узнать выдающуюся личность художника в дополнение к впечатляющей коллекции его работ в музее".

Оружие массовой дезинформации

Дипфейки используют лица не только звезд мира культуры, но и ведущих мировых политиков. И это уже вообще не шутки. Еще в апреле 2018 г. привлек внимание к этой проблеме актер и режиссер Джордан Пил. Для пущей наглядности он сам выступил в дипфейк-ролике, где под видом 44-го президента США Барака Обамы предостерег от опасности дипфейковых новостей. "Мы вступаем в эру, в которой наши враги могут заставить любого сказать что угодно и когда угодно", - объявил дипфейковый "Обама".

Это предупреждение подтвердилось очень быстро. Уже в мае 2018 г. в сети появился ролик, в котором президент США Дональд Трамп обращается к жителям Бельгии, призывая их отказаться признать Парижские соглашения по климатическому урегулированию. Видео вызвало волну возмущения в комментариях в адрес американского президента. Однако позже выяснилось, что Трамп ничего такого не говорил, а само видео было заказано бельгийскими социалистами, чтобы привлечь внимание к проблеме изменения климата.

В июне 2019 г. появилось видео, где основатель сети Facebook Марк Цукерберг рассуждает, как классно обладать данными миллиардов людей. "Тот, кто владеет информацией, - владеет будущим", - заявил дипфейковый "Цукерберг". Его движения и мимика настолько реалистичны, что многие поверили в подлинность ролика. Однако его создали британские художники Билл Постерс и Дэниел Хоу совместно с рекламным агентством Canny с помощью искусственного интеллекта, умеющего заменять диалоги в видео. Таким образом художники захотели привлечь внимание к своей выставке Spectre, которую они организовали, чтобы "раскрыть секреты цифрового влияния".

Поскольку нейросети постоянно самообучаются, то дипфейки получаются все более совершенными. Нынешние возможности этой технологии увидели участники Всемирного экономического форума в Давосе в январе 2020 г. Презентацию провел директор лаборатории Института креативных технологий Университета Южной Калифорнии профессор Хао Ли, возглавляющий компанию Pinscreen. Он продемонстрировал, как можно заменить лицо человека, сидящего перед камерой, на любое другое лицо. Сейчас он Хао Ли, а через мгновение - уже футболист Лионель Месси, затем - актер Леонардо ДиКаприо, актер Уилл Смит, 43-й президент США Джордж Буш, экс-премьер Великобритании Тереза Мэй...

Выглядит это немного жутковато. С одной стороны, можно только восхититься современными технологиями, которые позволяют сканировать лицо, на ходу менять его на другое и выдавать новую картинку. На все это тратятся доли секунды, и система даже не тормозит. То есть это позволяет не просто обработать готовое видео и заменить лицо, но и участвовать такому персонажу в каком-нибудь живом общении по видеосвязи.

С такой технологией, особенно если она будет с открытым кодом, любой желающий сможет сесть и записать любое видео. Полбеды, если оно просто кого-то дискредитирует или опорочит. Гораздо хуже, если это будет заявление, сделанное от имени важного человека.

Например, записав ролик длиной всего 30-40 секунд от имени главы Apple Тима Кука, можно обрушить чуть ли не всю IT-сферу США. Фондовый рынок получит такой сильный удар, что это посеет панику среди инвесторов. В итоге десятки тысяч людей потеряют  миллиарды долларов.

Кстати, вряд ли дипфейковый "Тим Кук" затеет это лишь шутки ради. Скорее он прибегнет к этой авантюре, чтобы заработать на колебаниях стоимости ценных бумаг (достаточно просто вовремя их купить и затем продать). И мысль о таком способе заработка может прийти не в одну темную голову.

Ситуация может быть и хуже, если "шутник" выскажется от лица лидера крупного государства. Конечно, потом все вскроется, но пока это случится, возможны всякие потрясения - от локальных до глобальных.

Можно представить и обратную ситуацию, когда реальный деятель что-то скажет, а потом будет всех уверять, что его подставили. Как поступать в таком случае информагентствам и журналистам, совершенно неясно, ведь перепроверить все в другом источнике у них просто не получится. В итоге станет вообще непонятно, что в этом мире правда, а что ложь.

Впрочем, жертвами дипфейков могут оказаться не только известные политики и бизнесмены, но и рядовые граждане. Например, против любого человека могут быть сфабрикованы ложные видеоулики, чтобы спихнуть на него чужое преступление. Или же чтобы с ним расправиться, если он перешел дорогу кому-то из сильных мира сего.

Гонка вооружений цифровой эпохи

Для тех, кто считает, что такие системы надо запретить, есть плохая новость: это уже невозможно. Даже если бы удалось выявить и уничтожить все генеративно-состязательные нейросети, обязательно будут созданы новые. Они начнут самообучаться и смогут творить все более совершенные дипфейки.

Более реалистичный способ борьбы - искать надежное противоядие этому яду. Поначалу определить подделку можно было буквально невооруженным глазом. Но вскоре дипфейки достигли уровня, когда для их разоблачения уже был необходим компьютер. А сейчас распознают дипфейки точно так же, как создают, - с помощью нейросетей.

Соотношение сил по созданию фейковых видеороликов и их обнаружению очень напоминает давнюю проблему брони и снаряда. Допустим, существует броня, которая способна защитить от сегодняшних снарядов, но дальше изобретут снаряд, который преодолеет эту броню. Потом изобретут броню, которая справится с новым снарядом, а за ней - снаряд, который осилит и эту броню. И так далее.

В июне 2019 г. группа исследователей из Калифорнийского университета в Беркли и Университета Южной Калифорнии представила новую технологию, которая научилась распознавать дипфейки, основываясь на индивидуальных жестах и манере речи человека. Разработку профинансировали Google и DARPA (Агентство передовых оборонных исследовательских проектов Пентагона).

По сообщению MIT Technology Review, разработчики натренировали нейросеть отличать уникальные микродвижения. К примеру, дипфейки пока не в состоянии воссоздать то, как Трамп пожимает плечами, а также зачастую ошибаются с морганием - на сгенерированных видео люди порой вообще не смыкают глаз, а иногда, наоборот, выглядят так, будто у них нервный тик.

Точность распознавания фальшивых видео составила 92% - это довольно неплохой показатель. Однако даже создатели не уверены, что эффект будет долгоиграющим. Как показывает практика, нейросети, генерирующие поддельные ролики, адаптируются к противоядиям столь же успешно, как вирусы к вакцинам.

Участником этой разработки был уже знакомый нам профессор Хао Ли. Он вообще считает, что все только начинается. "Мы наблюдаем гонку вооружений между цифровыми манипуляциями и способностью их распознавать. А усовершенствование алгоритмов на основе искусственного интеллекта - катализатор обеих сторон", - говорит профессор.

Он предполагает, что создателям дипфейков поначалу будет трудно адаптироваться к новому противоядию, но в конечном итоге у них это получится. По его оценкам, для этого потребуется лишь несколько лет.

Но и работа над противоядиями не остановилась. В сентябре 2019 г. Facebook, Microsoft и ряд других компаний объявили конкурс Deepfake Detection Challenge ("Задача выявления дипфейков") и выделили на его проведение более $10 млн. Он должен завершиться 31 марта 2020 г.

Эта гонка вооружений между создателями и разоблачителями дипфейков - новая реальность, возникшая с началом цифровой эры. То, что казалось только виртуальной реальностью, уже вторглось в нашу жизнь. Но не стоит делать трагедию из этого и впадать в апокалиптические прогнозы. Просто у каждой эры - своя гонка вооружений. А значит, должны быть и свои способы выживания.

    Реклама на dsnews.ua