Фальшивая порнография

Перейти к навигацииПерейти к поиску
изображение с помощью технологии дипфейк

Дипфейковая порнография, или просто поддельная порнография, представляет собой разновидность синтетического порно, которое создается с помощью изменения уже существующих порнографических материалов путём применения технологии deepfake к лицу актрисы или актёра. Дипфейковое порно вызывает множество нареканий, поскольку обычно лица знаменитостей женского пола помещаются на тела порноактрис, причем без согласия тех и других.

История

В 2017 году порнография с дипфейками наводнила Интернет, особенно платформу Reddit[1]. Первым роликом, привлёкшим ширококое внимание, стал дипфейк с Дейзи Ридли, о котором вышли несколько публикаций[1]. Другие известные порнографические дипфейки были сделаны с другими знаменитостями[1][2][3][4]. Согласно отчету, опубликованному в октябре 2019 года голландским стартапом Deeptrace, занимающимся кибербезопасностью, 96 % всех дипфейков в Интернете были порнографическими[5].

В декабре 2017 года Саманта Коул опубликовала статью о дипфейках в Vice. Статья вызвала широкий резонанс[6]. Шесть недель спустя Коул написала в последующей статье о значительном росте поддельной порнографии с помощью искусственного интеллекта[7]. С тех пор Саманта Коул из Vice опубликовала серию статей, посвящённых новостям, связанным с дипфейковой порнографией[8][9][10][11][4][12][6][7].

Несколько социальных сетей запретили или предприняли усилия по ограничению дипфейковой порнографии. В частности, сабреддит r/deepfakes на Reddit был запрещен 7 февраля 2018 года из-за нарушения политики «недобровольной порнографии»[13][14][15][16][17][18]. В том же месяце представители Twitter заявили, что приостановят действие учетных записей, подозреваемых в публикации дипфейкового контента без согласия исполнителей и владельцев образов[12].

Скарлетт Йоханссон, частый объект дипфейкового порно, публично рассказала об этом в The Washington Post в декабре 2018 года[19]. Она заявила, что, несмотря на опасения, она не будет пытаться удалить какие-либо из своих дипфейков, поскольку считает, что они не влияют на её общественный имидж и что различные законы в разных странах и характер интернет-культуры делают любые попытки удалить дипфейки «безнадёжным делом»[19]. В то время как такие знаменитости, как она, защищены своей славой, она считает, что дипфейки представляют серьезную угрозу для менее известных женщин, репутация которых может быть подорвана несогласованным изображением в дипфейковой порнографии или порномести[19].

DeepNude

В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, в котором использовались нейронные сети, в частности генеративно-состязательные сети, для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, первая стоила 50 долларов[20]. 27 июня создатели удалили приложение и вернули деньги потребителям, хотя различные копии приложения, как бесплатные, так и платные, продолжают хождение[21]. На GitHub версия этой программы с открытым исходным кодом под названием «open-deepnude» была удалена[22]. Версия с открытым исходным кодом имела то преимущество, что позволяла обучаться на большем наборе данных изображений обнаженной натуры, чтобы повысить уровень точности получаемого изображения обнаженной натуры[23].

Дипфейк CSAM

Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, быстрее, безопаснее и проще, чем когда-либо. Дипфейки можно использовать для создания новых CSAM из уже существующих материалов или создания CSAM с изображением детей, которые не подвергались реальному сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, домогательства, вымогательства и издевательства[24]. Кроме того, дипфейковая детская порнография создает дополнительные препятствия для полиции, усложняя уголовные расследования и идентификацию жертв.

Этические дебаты

Берлин 2023 протест против дипфейк порнографии

Программное обеспечение для дипфейковой порнографии может быть использовано не по назначению для создания порномести против человека, что может быть расценено как форма домогательства[21].

В настоящее время кадры, созданные с помощью программного обеспечения, такого как DeepNude, все еще далеки от того, чтобы быть неотличимыми от реальных кадров при судебном анализе[23].

Усилия компаний по ограничению видеозаписи дипфейковой порнографии

31 января 2018 года Gfycat начал удалять со своего сайта все дипфейки[25][26].

В феврале 2018 года Reddit забанил r/deepfakes за распространение несогласованной порнографии[18]. Другие веб-сайты также запретили использование дипфейков для принудительной порнографии, в том числе платформа социальных сетей Twitter и порносайт Pornhub[12]. Тем не менее, некоторые веб-сайты, в том числе 4chan и 8chan, не запретили дипфейк-контент[27].

Также в феврале 2018 года Pornhub заявил, что запретит дипфейковые видео на своем веб-сайте, поскольку они считаются «контентом без согласия», что нарушает их условия обслуживания[28]. Ранее они также заявляли Mashable, что удалят контент, помеченный как дипфейки[29]. В статье 2018 года авторы из Motherboard сообщили, что поиск «дипфейков» на Pornhub по-прежнему выдаёт несколько недавних видео с дипфейками[9].

Чат-сайт Discord в прошлом принимал меры против дипфейков[30] и занимал общую позицию в отношении дипфейков[26][31]. В сентябре 2018 года Google добавил «несогласованные синтетические порнографические изображения» в свой список запретов, что позволило любому запрашивать блок результатов, изображающих их поддельные обнаженные тела.[32]

Примечания

  1. 1 2 3 Roettgers, Janko (2018-02-21). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (англ.). Архивировано 10 июня 2019. Дата обращения: 28 февраля 2018.
  2. Goggin, Benjamin. From porn to 'Game of Thrones': How deepfakes and realistic-looking fake videos hit it big (англ.). Business Insider. Дата обращения: 9 ноября 2019. Архивировано 8 ноября 2019 года.
  3. Lee, Dave (2018-02-03). "'Fake porn' has serious consequences" (англ.). Архивировано 1 декабря 2019. Дата обращения: 9 ноября 2019.
  4. 1 2 Cole. Gfycat's AI Solution for Fighting Deepfakes Isn't Working (англ.). Vice (19 июня 2018). Дата обращения: 9 ноября 2019. Архивировано 8 ноября 2019 года.
  5. The State of Deepfake - Landscape, Threats, and Impact (англ.). Deeptrace (1 октября 2019). Дата обращения: 7 июля 2020. Архивировано 9 августа 2020 года.
  6. 1 2 Cole, Samantha. AI-Assisted Fake Porn Is Here and We're All Fucked (англ.). Vice (11 декабря 2017). Дата обращения: 19 декабря 2018. Архивировано 7 сентября 2019 года.
  7. 1 2 Cole. We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now (англ.). Vice (24 января 2018). Дата обращения: 15 декабря 2019. Архивировано 7 сентября 2019 года.
  8. Cole. This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies (англ.). Vice (11 июня 2019). Дата обращения: 15 декабря 2019. Архивировано 12 октября 2019 года.
  9. 1 2 Cole, Samantha. Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual (англ.). Vice (6 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 1 ноября 2019 года.
  10. Cole. AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host (англ.). Vice (31 января 2018). Дата обращения: 18 ноября 2019. Архивировано 1 ноября 2019 года.
  11. Cole, Samantha; Maiberg, Emanuel; Koebler, Jason This Horrifying App Undresses a Photo of Any Woman with a Single Click (англ.). Vice (26 июня 2019). Дата обращения: 2 июля 2019. Архивировано 2 июля 2019 года.
  12. 1 2 3 Cole, Samantha. Twitter Is the Latest Platform to Ban AI-Generated Porn (англ.). Vice (6 февраля 2018). Дата обращения: 8 ноября 2019. Архивировано 1 ноября 2019 года.
  13. Böhm, Markus (2018-02-07). ""Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor". Der Spiegel (нем.). Архивировано 23 сентября 2019. Дата обращения: 9 ноября 2019.
  14. Barbara Wimmer. Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos (нем.). futurezone.at (8 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 8 февраля 2018 года.
  15. Deepfakes: Auch Reddit verbannt Fake-Porn (нем.). heise online. Дата обращения: 9 ноября 2019. Архивировано 10 апреля 2019 года.
  16. Reddit verbannt Deepfake-Pornos (нем.). der Standard. Дата обращения: 9 ноября 2019. Архивировано 9 ноября 2019 года.
  17. Robertson, Adi. Reddit bans 'deepfakes' AI porn communities (англ.). The Verge (7 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 24 сентября 2019 года.
  18. 1 2 Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC (англ.). Архивировано 10 апреля 2019. Дата обращения: 20 февраля 2018.
  19. 1 2 3 "Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'". The Washington Post (англ.). 2018-12-31. Архивировано 23 мая 2022. Дата обращения: 19 июня 2019.
  20. Cole, Samantha; Maiberg, Emanuel; Koebler, Jason This Horrifying App Undresses a Photo of Any Woman with a Single Click (англ.). Vice (26 июня 2019). Дата обращения: 2 июля 2019. Архивировано 2 июля 2019 года.
  21. 1 2 DeepNude AI copies easily accessible online (англ.). The Verge (3 июля 2019). Дата обращения: 11 ноября 2022. Архивировано 8 февраля 2021 года.
  22. Cox, Joseph (2019-07-09). "GitHub Removed Open Source Versions of DeepNude" (англ.). Vice Media. Архивировано 24 сентября 2020. Дата обращения: 11 ноября 2022.
  23. 1 2 Redmon, Jennifer. DeepNude - the AI that “Undresses” Women - is Back. What Now? (англ.). Cisco Blogs (7 июля 2019). Дата обращения: 22 декабря 2022. Архивировано 7 марта 2021 года.
  24. Kirchengast, T (2020). "Deepfakes and image manipulation: criminalisation and control". Information & Communications Technology Law (англ.). 29 (3): 308—323. doi:10.1080/13600834.2020.1794615.
  25. Cole, Samantha. AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host (англ.). Vice (31 января 2018). Дата обращения: 18 ноября 2019. Архивировано 1 ноября 2019 года.
  26. 1 2 Ghoshal, Abhimanyu. Twitter, Pornhub and other platforms ban AI-generated celebrity porn (англ.). The Next Web (7 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 20 декабря 2019 года.
  27. Hathaway, Jay. Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban (англ.). The Daily Dot (8 февраля 2018). Дата обращения: 22 декабря 2018. Архивировано 6 июля 2019 года.
  28. Cole, Samantha. Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual (англ.). Vice (6 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 1 ноября 2019 года.
  29. Damon Beres and Marcus Gilmer. A guide to 'deepfakes,' the internet's latest moral crisis (англ.). Mashable (2 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 9 декабря 2019 года.
  30. Price, Rob. Discord just shut down a chat group dedicated to sharing porn videos edited with AI to include celebrities (англ.). Business Insider Australia (27 января 2018). Дата обращения: 28 ноября 2019. Архивировано из оригинала 15 декабря 2019 года.
  31. Twitter bans 'deepfake' AI-generated porn (англ.). Engadget. Дата обращения: 28 ноября 2019. Архивировано 15 декабря 2019 года.
  32. Harrell, Drew. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". The Washington Post (англ.). Архивировано 2 января 2019. Дата обращения: 1 января 2019.