Главная > Технологии

Компьютерные копии политиков сводят с ума миллиарды людей

13.11.2018   13:49    119

В мае в Интернете появился видеоролик, в котором Дональд Трамп давал совет Бельгии по проблеме изменения климата, пишет The Guardian. Видео создала бельгийская политическая партия Socialistische Partij Anders или sp.a, а также разместила его на Twitter и Facebook. Это вызвало сотни комментариев, многие выразили возмущение, что американский президент осмелился повлиять на политику Бельгии.


Оказалось, что видеоролик был высокотехнологичной подделкой. В sp.a сообщили, что партия наняла производственную студию для машинного обучения с целью создать «дипфейк» (deepfake) – компьютерную копию человека, в этом случае – Трампа.

Задача sp.a состояла в том, чтобы использовать фейковое видео для привлечения внимания людей, затем их перенаправляли на онлайн-петицию, в которой призывали бельгийское правительство предпринять более срочные действия в вопросе климата. Создатели видео позже заявили, что более низкого качества поддельного видео было бы достаточно. «Из движений губ видно, что это не настоящая речь Трампа», — прокомментировал представитель sp.a.

Дипфейки

Фейковые видео можно создавать с использованием техники машинного обучения, называемой «генеративной состязательной сетью» или GAN. Студент-выпускник Ян Гудфеллоу изобрел GAN в 2014 году как способ алгоритмической генерации новых типов данных из уже существующих. Например, GAN может изучить тысячи фотографий Барака Обамы, а затем создать новое изображение, которое не будет точной копией предыдущих. GAN также могут использовать для создания нового аудио из уже существующего — это универсальная технология.

Использование этого метода машинного обучения было ограничено научным сообществом ИИ до конца 2017 года, пока пользователь Reddit с ником Deepfakes не начал опубликовывать сфабрикованные порнографические видео: он «накладывал» лица знаменитостей на тела женщин из порно. Позже создатель видео выпустил простую в использовании платформу для создания дипфейков — FakeApp.

222.jpg (45 KB)

«Дипфейки могут быть очень опасными – их ведь можно использовать как оружие, например, для ослабления структуры демократического общества. В 2015 году в Балтиморе убили Фредди Грея. И я представила, если бы в сеть выложили дипфейки о начальнике полиции», — прокомментировала профессор права в Университете штата Мэриленд Даниэль Цитрон.

Это интересно:  Ракетный катер “Прилуки” вооружают украинскими ракетами Нептун

Цитрон вместе со своим коллегой Бобби Чесни начали работу над докладом, в котором излагалась степень потенциальной опасности. Помимо угрозы частной жизни и национальной безопасности, оба ученых больше обеспокоены тем, что распространение дипфейков может катастрофически подорвать доверие между различными фракциями общества в уже поляризованном политическом климате.

В частности, дипфейки могут использовать распространители ложных новостей. Любой, кто имеет доступ к этой технологии — от санкционированных государством пропагандистов до троллей — сможет искажать информацию и манипулировать убеждениями.

В апреле режиссер Джордан Пил и БаззФид выпустили дипфейк с Бараком Обамой (где он называл Трампа «недоумком»), чтобы повысить осведомленность общества о созданных искусственных интеллектом синтетических медиа, которые могут использоваться для искажения и манипулирования реальностью. В сентябре три члена Конгресса отправили письмо директору национальной разведки, выразив опасения по поводу того, как можно использовать дипфейки в «кампаниях дезинформации на выборах».

333.jpg (102 KB)

Влияние дипфейков

Директор Ethics and Governance of Artificial Intelligence Initiative Тим Хванг долгое время изучал распространение дезинформации в медиа, и, за исключением бельгийского инцидента, еще не видел действительно негативных последствий от дипфейков. По мнению Хванга, это отчасти потому, что использование машинного обучения для создания убедительных поддельных видео по-прежнему требует определенной степени знаний и большого количества данных.

В то же время Хванг признает, что сейчас дипфейки становятся более реалистичными и их легче создавать. «Мы уже давно можем обрабатывать фото и видео. Но, если раньше вы хотели снять дипфейк, то вам понадобилась бы команда экспертов. Машинное обучение не только автоматизирует этот процесс, но и, вероятно, улучшит качество фейка», — заявил Хванг.

Это интересно:  Galaxy S10 на изображениях выглядит превосходно

В августе международная команда исследователей, связанная с Институтом информатики общества Макса Планка, представила технологию для создания «портретных дипфейков»: одно лицо подменяется другим, например, исследователь открывает рот – и фейковый Барак Обама открывает рот.

444.jpg (53 KB)

По мнению ученого Кристиана Теобальта, «портретные дипфейки» наиболее эффективно будут использоваться для дубляжа в иностранных фильмах. Исследователи признали потенциальное злоупотребление технологией, но подчеркнули, что их подход может произвести «революцию в индустрии визуальных развлечений».

«Сообществу ценителей спецэффектов понравится новая технология. Но за пределами Голливуда неясно, перевесят ли положительные аспекты негативные», — прокомментировал профессор информатики Калифорнийского университета в Беркли Хани Фарид.

В июне исследователи из Университета в Олбани (SUNY) опубликовали документ, в котором объясняется, как идентифицировать поддельное видео. Facebook также обязался разрабатывать модели машинного обучения для выявления дипфейков. Тем не менее, Фарид считает, что даже судебно-медицинская экспертиза не поможет распознать фейковое видео, так как машинное обучение может запросто обойти ее.

«Все, что нужно программисту — это обновить алгоритм, чтобы искать, скажем, изменения цвета в лице, которые соответствуют сердечному ритму», — сообщил Фарид. — «Проблема не только в прогрессе технологии дипфейков. Социальные процессы, посредством которых мы коллективно узнаем вещи и считаем их истинными или неверными, находятся под угрозой».

Эксперты утверждают, что наибольшая угроза дипфейков не в самом содержании, а в простом существовании. Так, по совам ученого Авива Овадьи, постоянный контакт с дезинформацией вызывает у людей недоверие к тому, что они видят и слышат. Недавние опросы показывают, что доверие к основным институтам и средствам массовой информации снижается. Овадья убежден, что распространение дипфейков, скорее всего, усугубит эту тенденцию.


Загрузка...





загрузка...


Загрузка...



загрузка...


Загрузка...



Загрузка...

© 2018, НОВОСТИ Ю
(Служба поддержки) E-mail: admin@newsyou.info

При копировании материалов со страниц сайта для интернет-изданий – обязательна прямая, открытая для поисковых систем гиперссылка. Ссылка должна быть размещена в независимости от полного либо частичного использования материалов. Администрация Сайта Newsyou.info (Главный редактор, редакторы, авторы материалов) прикладывает все усилия, чтобы обеспечить пользователей точной и достоверной информацией, но в то же время не исключает возможности возникновения ошибок. Некоторые ссылки на этом Сайте ведут к ресурсам, расположенным на сторонних сайтах. Данные ссылки размещены для удобства пользователей и не означают, что Администрация Сайта одобряет содержание других сайтов. Кроме этого, Администрация Сайта не несет никакой ответственности за доступность этих ресурсов и за их контент. Это заявление относится ко всем ссылкам, представленным на Сайте, и материалам всех веб-сайтов, доступных через баннеры и ссылки. За рекламу, размещаемую на Сайте, несет ответственность лишь рекламодатель. Администрация сайта не несет ответственности за содержание и достоверность рекламных материалов размещенных на нашем сайте, а так же возможный вред от их использования.