Новые исследования показывают тревожный всплеск в создании так называемых фальшивых видеороликов, число которых в Интернете за последние девять месяцев увеличилось почти вдвое. Есть также свидетельства того, что производство этих видеороликов становится прибыльным бизнесом.

И хотя большая часть озабоченности по поводу подделок сосредоточена на их использовании в политических целях, есть доказательства того, что подавляющее большинство клипов приходится на порнографию.

Исследования проводятся компанией по кибербезопасности “Диптрейс”. Исследователи обнаружили в Интернете 14 698 поддельных видеороликов по сравнению с 7 964 в декабре 2018 года.

Они сказали, что 96% были порнографическими по своей природе, часто с компьютерным лицом знаменитости, замещающим лицо взрослого актера в сцене сексуальной активности.

Хотя многие сюжеты фильма были посвящены американским и британским актрисам, исследователи обнаружили, что южнокорейские певцы K-Pop также часто включались в поддельные видео, подчеркивая, что это глобальное явление.

В докладе подчеркивается потенциал использования глубоких поддельных технологий в политических кампаниях. Однако в двух случаях, когда речь идет о Габоне и Малайзии, утверждения о том, что использовались поддельные видеоматериалы, оказались неверными.

Очевидно, однако, что в настоящее время реальная опасность заключается в использовании технологии для мести порно и киберзапугивания. Генри Айдер, руководитель аналитического отдела Deeptrace, говорит, что слишком много разговоров о фальшивках не доходит до сути.

“Дискуссии сводятся к политике или мошенничеству и краткосрочной угрозе, но многие забывают, что глубокая порнография – это очень реальное, очень актуальное явление, причиняющее вред многим женщинам”, – объясняет он.

Фальшивые изображения, настоящие деньги.

Само существование Дептрейс свидетельствует о том, как быстро корпорации и правительства озаботились этим глубоким феноменом.

Ее миссия заключается в защите “отдельных лиц и организаций от вредного воздействия искусственных средств массовой информации, генерируемых искусственным интеллектом”.

Термин “deepfake” впервые появился в 2017 году на сайте Reddit, и в данном отчете объясняется, что всего за два года вся индустрия фальшивых видео развивается семимильными шагами, чтобы извлечь выгоду из этого феномена.

Deeptrace обнаружила, что с февраля 2018 года на четырех ведущих веб-сайтах с порнографической тематикой, поддерживаемых рекламой, просмотрели свои видеоматериалы 134 миллиона человек.

Приложения, позволяющие создать этот материал, в настоящее время распространяются повсеместно. Та, которая позволяла пользователям синтетически снимать одежду с фотографий женщин, стоила $50 (£40) за удаление водяного знака с каждого готового изделия. Посещение веб-сайта приложения резко возросло после того, как была написана статья об этом в СМИ, и владельцы удалили ее. Но программное обеспечение все еще существует, развивается другими людьми, стремящимися извлечь из него выгоду.

Один независимый эксперт подчеркнул, что другие программы также значительно облегчают создание фальшивых видеороликов, чем раньше.

Теперь стало возможным создавать проходимые глубокие фальшивки с небольшим количеством входного материала – алгоритмам требуется все меньше и меньше видео или фотоматериалов для обучения”, – объясняет Катя Бего, главный научный сотрудник инновационного фонда ” Nesta”.

“Поскольку технология развивается так быстро, разработчикам политики важно сейчас подумать о возможных ответных мерах. Это означает не только разработку средств обнаружения и повышение осведомленности общественности, но и учет лежащих в основе социальной и политической динамики, которая делает глубинные фальшивки потенциально настолько опасными”.

Авторы отчета Deeptrace также описывают сервисные порталы – интернет-компании, производящие и продающие видеоролики.

Для создания одного из таких порталов потребовалось 250 фотографий целевой аудитории и два дня обработки для создания видеоматериала. Дептрейс говорит, что цены варьируются, но могут достигать всего $2,99 за видео.

Другой доклад, опубликованный ранее в этом году Witness Media Lab, организацией по защите прав человека и Google, показал, что создание фальшивых видео все еще требует определенных навыков, но это быстро меняется.

В докладе говорится, что в настоящее время моделирование реальных лиц, полностью реалистично, по-прежнему включает в себя значительную группу людей со специализированными навыками и технологиями.

Однако длительный процесс автоматизируется, позволяя людям без специальных знаний делать видео, которое может быть менее сложным, но может быть сгенерировано гораздо быстрее.

Глядя на видео, помеченное фальшивым хэштэгом на YouTube, можно увидеть несколько впечатляющих примеров того, как эта технология используется профессиональными командами.

Один видеоролик, в котором внезапно появляется Джим Кэрри в роли Джека Николсона, снят художником по имени Ctrl Shift Face.

Анонимный создатель помогает предупредить на своем канале: “Не верьте всему, что видите в интернете, хорошо?”

Цель Ctrl Shift Face – развлекать, а не обманывать. Но есть очевидные опасения, что такая подделка может быть использована для смещения избирательной кампании или разжигания ненависти к определенной группе населения.

Однако было мало, если вообще были случаи, когда подобные подделки удавалось одурачить людей в злонамеренных целях.

В любом случае, в краткосрочной перспективе реальными жертвами злоумышленников, использующих поддельные видеоматериалы, станут не правительства и корпорации, а отдельные лица, большинство из которых – женщины. Маловероятно, что они смогут позволить себе нанять специалистов для борьбы со своими обидчиками.

Источник: BBC