Где правда, а где ложь? Как дипфейки меняют наш мир

Где правда, а где ложь? Как дипфейки меняют наш мир
wired.com
05.11.2019 09:50 709

Технологические гиганты уже выделяют миллионы долларов для борьбы с поддельным контентом.

Слово «дипфейки» все чаще появляется в наших лентах и эфирах ведущих мировых телеканалов. Технологические гиганты, такие как Amazon, Facebook вместе работают над тем, чтобы дать им бой. Рассказываем, что это такое и как они изменят наш мир. 

Что такое Deepfake и как их применяют 

Это технология, которая работает с помощью искусственного интеллекта. Она производит или полностью меняет контент, в результате чего появляется видео, которого никогда не существовало. Таким образом, можно подделывать заявления политиков, бизнесменов, ученых и кого-угодно. С каждым днем уровень технологии растет и, вполне возможно, она станет настолько правдоподобной, что даже эксперты не смогут определить, реально это видео или нет. 

Deepfakes создаются с помощью метода глубокого обучения, известного как Generative Adversarial Networks (GAN), при котором два алгоритма используются для того, чтобы сделать фейки более правдоподобными. Изучая изображения и видео человека в форме обучающих данных, первая модель создает видео, в то время как вторая модель пытается обнаружить его недостатки. Эти две модели работают рука об руку, пока они не создадут правдоподобное видео.

Их могут использовать в политике, шоу-бизнесе, да и просто в бытовой жизни для угроз и шантажа. Ведь уже сегодня создать фейковое видео может практически каждый пользователь интернета, а со временем это будет сделать еще легче.

У этой технологии есть и свои плюсы, если пустить ее во благо. Например, создание большего количества обучающих данных для улучшения автономных транспортных средств. Но, как и в случае с любой другой технологией, люди используют ее по-своему — для создания фейковых видеороликов и распространения дезинформации в социальных сетях. 

Как выглядят дипфейки

Американский режиссер Джордан Пил (фильмы «Прочь» и «Мы») создал видео с цифровой копией Барака Обамы. Это стало возможным благодаря предыдущим интервью Обамы и нейросетям.

В самом ролике режиссер и «президентская копия» предостерегают, что наступило опасное время и пользователям нужно быть более бдительным и не верить всему, что они видят в интернете, а доверять стоит исключительно проверенным и верифицированным источникам новостей.

«Мы живем в эре, в который наши враги могут выглядеть как угодно, говорить что угодно и когда угодно. К примеру, они могут заставить меня сказать, что Киллмонгер (заклятый враг Черной Пантеры, одного из главных супергеройских фильмов года) был прав! Или, что самое простое — президент Трамп полнейший засранец. Как вы понимаете, я никогда не скажу этих слов, по крайней мере, на публике. Но кто-нибудь другой может. Этот кто-нибудь — Джордан Пил», — говорит Барак Обама в фейковом обращении. Завершает свою речь фейковый Обама словами: «Спасибо и всегда оставайтесь начеку, сучки».

Как дипфейки могут вмешиваться в выборы 

В следующем году в США будут выбирать президента. В политических кругах уже бьют панику, что видеофейки могут серьезно повлиять на результаты голосования. Учитывая прошлогодний скандал с компанией Cambridge Analytica, американцы не хотят повторения сценария, когда выборы президента прошли с явным вмешательством сторонних сил. 

Подобные фейки еще не получили широкого распространения, но правительство США обеспокоено тем, что иностранные противники могут использовать их в попытках вмешаться в выборы 2020 года. В ходе международной оценки угроз в январе Дэн Коутс, директор Национальной разведки США, предупредил, что, вероятно, среди тех, кто захочет сорвать выборы, могут оказаться мошенники или фейковые СМИ. Комитет по разведке Палаты представителей даже проводил слушания по потенциальным угрозам, создаваемыми технологией фальсификации.

В надежде остановить распространение дезинформации, связанной с Deepfake, Хани Фарид, профессор и эксперт по криминалистике в Дартмутском колледже, разрабатывает программное обеспечение, которое может выявлять Deepfake. Он говорит, что надеется распространить свои инструменты обнаружения фейковых видео для журналистов в декабре с помощью сайта, где они могут проверить подлинность видео. «Если вы репортер и видите видео, перед тем, как сообщить о нем, у вас должен быть механизм проверки», — сказал он.

Как технологические гиганты будут бороться с дипфейками 

Компании Facebook, Microsoft и Amazon объединились вместе для борьбы с дипфейками. В частности, Amazon в течение следующих двух лет собирается предоставить исследователям $1 млн. 

Ранее, в сентябре этого года, Facebook объявил о партнерстве с программой DeepFake Detection в сотрудничестве с Microsoft и академическими учреждениями, такими как Cornell Tech, MIT и Оксфордский университет. Партнеры по инициативе пообещали 10 миллионов долларов и выпустили набор данных из 5000 видео, чтобы помочь людям создавать инструменты обнаружения. 

Алексей Симончук

Читайте также: