Deepfakes Taylor Swift zgromadziły 47 milionów wyświetleń w X
Taylor Swift stała się obiektem nielegalnej, fałszywej pornografii w postaci obrazów o charakterze jednoznacznie seksualnym udostępnianych na platformach mediów społecznościowych gwiazd.

- Joanna Gościńska
- /
- 12 lutego 2024
Pornograficzna epidemia?
Fałszywa pornografia osiągnęła rozmiary epidemii, a coraz więcej celebrytów i zwykłych ludzi prezentuje fałszywą pornografię bez zgody. Niedawwno wygenerowane przez sztuczną inteligencję obrazy artystki Taylor Swift o charakterze jednoznacznie seksualnym pojawił się na X. Niedawno zauważono fałszywą aktorkę Jennifer Aniston promującą oszustwo w serwisie YouTube. Choć wiele osób zgodziło się, że film zawierał wiele wyraźnych oznak fałszywości – od dziwacznych wyrazów twarzy po ruchy warg nie do końca odpowiadające temu, co zostało powiedziane – inni wyrazili zaniepokojenie rosnącą jakością takich oszustw.
1(22) 2024 SECURITY MAGAZINE Monika Świetlińska
możemy Ci pomóc w analizie i zgłoszeniu do UODOWyciekły w Twojej firmie dane osobowe
Według „Stan Deepfakes i gwałtowny wzrost liczby syntetycznych treści dla dorosłych w 2023 r. w Clearnet” w 2023 r. pojawiło się prawie 280 000 syntetycznych, dobrowolnych filmów wykorzystujących technologię Clearnet. Z raportu wynika, że czas trwania tych filmów wyniósł 1249 dni, a liczba wyświetleń przekroczyła 4,2 miliarda. Co więcej, liczba filmów opublikowanych na wiodących fałszywych stronach internetowych NCEI wzrosła z 9 300 do prawie 14 000.
Głęboki wpływ na ofiary
Tworzenie bez zgody fałszywej pornografii może mieć głęboki wpływ na ofiary. „Wiele ofiar doświadczyło depresji, myśli samobójczych, zespołu stresu pourazowego i traumy seksualnej po sfałszowaniu ich zdjęć” – powiedziała Sophie Maddocks.
Nawet jeśli wiadomo, że obrazy są fałszywe, tego typu treści mają na celu „seksualny wstyd i poniżanie ofiar, które mogą mieć trudności z osiągnięciem miejsca zapewniającego bezpieczeństwo psychiczne”, ponieważ ich zdjęć nie można usunąć z Internetu. Ta szkodliwa tendencja wykazała już dalekosiężne niekorzystne skutki dla celebrytów i prawdziwych ludzi i prawdopodobnie stanie się jeszcze bardziej problematyczna w miarę ulepszania technologii.
Czym jest deepfake?
Deepfake, odpowiedź XXI wieku na Photoshopping, wykorzystuje formę sztucznej inteligencji zwaną głębokim uczeniem się do tworzenia obrazów fałszywych wydarzeń, stąd nazwa deepfake. Chcesz włożyć nowe słowa w usta polityka, zagrać w swoim ulubionym filmie lub tańczyć jak profesjonalista ? Nadszedł czas na deepfake.
Nowy wymiar cyberoszustw. Czym jest deepfake?Martyna Kowalska
Wiele z nich ma charakter pornograficzny. We wrześniu 2019 r. firma zajmująca się sztuczną inteligencją Deeptrace znalazła w Internecie 15 000 fałszywych filmów, co stanowi prawie dwukrotny wzrost w ciągu dziewięciu miesięcy. Zdumiewające 96% to treści pornograficzne, a 99% z nich to odwzorowane twarze, od celebrytek po gwiazdy porno. Ponieważ nowe techniki pozwalają niewykwalifikowanych osobom na tworzenie deepfake’ów przy użyciu garstki zdjęć, fałszywe filmy prawdopodobnie rozprzestrzenią się poza świat celebrytów, napędzając pornografię zemsty. Jak ujęła to Danielle Citron, profesor prawa na Uniwersytecie Bostońskim: „Technologia Deepfake jest wykorzystywana przeciwko kobietom”. Poza pornografią jest mnóstwo parodii, satyry i psot.
Dziękujemy, że przeczytałaś/eś nasz artykuł do końca. Jeśli chcesz być na bieżąco
z informacjami za zakresu bezpieczeństwa, zapraszamy do naszego serwisu
ponownie!
Jeżeli
podobał Ci się artykuł podziel się z innymi udostępniając go w mediach
społecznościowych.
Potrzebujesz wsparcia lub szukasz rozwiązań w zakresie zagadnienia, o którym mowa w artykule?