Sieć zalały fotki erotyczne z Taylor Swift stworzone przez AI. Taki los może spotkać każdą kobietę

Maja Mikołajczyk
04 lutego 2024, 16:28 • 1 minuta czytania
W ubiegłym tygodniu Taylor Swift padła ofiarą ataku z użyciem sztucznej inteligencji, w ramach którego wykorzystano jej zdjęcia do wygenerowania fałszywych materiałów pornograficznych. Skandal odbił się w USA szerokim echem i wywołał dyskusję na temat wprowadzenia regulacji dotyczących AI na poziomie federalnym. Zareagował nawet Biały Dom.
Taylor Swift padła ofiarą AI. Fot. Rex Features/ East News

Taylor Swift ofiarą AI

Wygenerowane przez sztuczną inteligencję pornograficzne zdjęcia Taylor Swift zostały udostępnione na portalu X w środę 24 stycznia. Można było zobaczyć na nich gwiazdę pop w seksualnych pozach, umalowaną i nieco okrytą ubraniami w barwach klubu Kansas City Chiefs (drużyny futbolu amerykańskiego, do której należy Travis Kelce, czyli obecny partner Swift).


Pierwsze do walki z fałszywą pornografią ruszyli Swifties (takim mianem określają się fani Taylor), którzy zaczęli zgłaszać konta, które udostępniały obsceniczne zdjęcia. Wstawiali również inne fotki artystki z hasztagami #TaylorSwiftAI i #ProtectTaylorSwift, żeby utrudnić odnalezienie tych erotycznych.

Zvbear, czyli "autor" fałszywek, napisał na swoim profilu na X:

"Nie obchodzi mnie, jak potężni są Swifties, nigdy mnie nie znajdą. Do wszystkiego, co robię, potrzebuję fałszywych adresów i numerów telefonów. Dopóki moje konto jest aktywne, nie mogę przegrać" – napisał na swoim profilu.

Nie docenił jednak fanek i fanów Taylor, gdyż z ich pomocą udało się go zidentyfikować. Pod wspomnianym wyżej pseudonimem krył się 28-latek z Toronto. Swifties znalazły nawet jego imię, nazwisko i adres, które opublikowały w internecie.

Pomimo tej akcji ratunkowej zorganizowanej przez fanów artystki materiały o charakterze pornograficznym obejrzano 47 mln razy. Konto Zvbeara, choć zostało przełączone na "prywatne", wciąż jest jednak aktywne, choć fani Swift domagają się jego usunięcia.

"Nasze zespoły aktywnie usuwają wszystkie zidentyfikowane obrazy i podejmują odpowiednie działania wobec kont odpowiedzialnych za ich publikację. Uważnie monitorujemy sytuację, aby mieć pewność, że wszelkie dalsze naruszenia zostaną natychmiast zajęte, a treści usunięte. Dokładamy wszelkich starań, aby zapewnić wszystkim użytkownikom bezpieczne i pełne szacunku środowisko" – napisał wieczorem 25 stycznia zespół X ds. bezpieczeństwa na swoim oficjalnym profilu.

Na jakiś czas zespół X zablokował również wyszukiwanie frazy "Taylor Swift", co uniemożliwiło wyszukanie jakichkolwiek wzmianek o Taylor czy jej zdjęć. "Ups, coś poszło nie tak. Nie przejmuj się, to nie Twoja wina" – taki komunikat pojawiał się w serwisie po wpisaniu nazwiska Swift w wyszukiwarce.

"To działanie tymczasowe i podjęte z dużą ostrożnością, ponieważ w tej kwestii priorytetowo traktujemy bezpieczeństwo" – przekazał dyrektor operacyjny X Joe Benarroch.

Jak jednak zauważyli użytkownicy portalu bardziej wrażliwe frazy, jak "Taylor AI Swift" wciąż były aktywne. Obecnie hasło "Taylor Swift" można już wyszukać w serwisie normalnie.

Reakcja związku zawodowego aktorów... i Białego Domu

Sprawa Swift wywołała głośną debatę w USA na temat zmiany prawa dotyczącego generowanych przez AI deepfake'ów o charakterze pornograficznym.

"Musimy coś zrobić. Szczerze mówiąc, my, platformy technologiczne, odnieślibyśmy korzyści, gdyby świat online stał się bezpieczniejszym miejscem. Myślę, że jeśli prawodawcy, organy ścigania i platformy technologiczne będą współpracować, możemy wiele osiągnąć" – powiedział w rozmowie z NBC News dyrektor generalny Microsoft Satya Nadella.

Głos zabrało również SAG-AFTRA, do którego szeregów należy sama Swift. Gildia Aktorów zresztą już podczas ubiegłorocznych protestów domagała się stosownych regulacji związanych z używaniem sztucznej inteligencji w Hollywood.

"Wygenerowane przez sztuczną inteligencję obrazy przedstawiające Taylor Swift o charakterze jednoznacznie seksualnym, są szkodliwe i głęboko niepokojące. Tworzenie i rozpowszechnianie fałszywych zdjęć – szczególnie tych o obscenicznym charakterze – bez zgody danej osoby musi zostać uznane za nielegalne" – zaapelowano w oświadczeniu.

Naprawdę poważnie zrobiło się jednak, gdyż zareagował nawet Biały Dom. "Jesteśmy zaniepokojeni krążeniem takich fałszywych zdjęć. Uważamy, że niezależne platformy media społecznościowe mają do odegrania ważną rolę i muszą egzekwować własne zasady, aby zwalczać rozprzestrzenianie się dezinformacji" – powiedziała jego rzeczniczka Karine Jean-Pierre w oświadczeniu.

"Biały Dom ma świadomość, że szczególnie kobiety i dziewczęta cierpią, ponieważ platformy nie wywiązują się ze swoich obowiązków w podobnych sprawach. Prezydent Biden i wiceprezydent Harris utworzyli jesienią grupę zadaniową ds. tej kwestii. Departament Sprawiedliwości uruchomił całodobową infolinię dla ofiar wykorzystywania seksualnego ze względu na wizerunek" – dodała.

Sama Taylor Swift, jej rzecznik ani jej partner nie skomentowali skandalu. W niedzielę wieczorem internet podbiły jednak zdjęcia artystki i Kelcego po meczu Kansas City Chiefs, który zagwarantował drużynie start w mistrzostwach futbolu amerykańskiego Super Bowl.

"Przydarza się kobietom wszędzie i każdego dnia"

Badania z 2019 roku pokazały, że aż 96 proc. deepfake'ów to materiały pornograficzne z kobietami, które są tworzone bez ich wiedzy i zgody. Ofiarami padają zarówno osoby publiczne, jak i "zwykli" ludzie, w tym nieletni.

W przypadku tej drugiej grupy często odbywa się to w ramach tzw. "revenge porn", czyli udostępniania erotycznych zdjęć i nagrań byłych partnerów (jak można się domyślić, takie zemsty kierowane są głównie w stronę kobiet).

W Polsce oraz Wielkiej Brytanii, a także w paru innych krajach takie działania są surowo karane, jednak w USA podobne prawo obowiązuje jedynie w niektórych stanach i nie jest ustanowione na poziomie federalnym.

W sprawie uznania rozpowszechniania pornograficznych deepfake'ów za przestępstwo federalne wniosek w Izbie Reprezentantów zgłosił w maju 2023 roku demokratyczny kongresmen Joe Morelle. Polityk skomentował sprawę Swift, mówiąc, że jest to "odrażające, ale niestety przydarza się kobietom wszędzie i każdego dnia".

Eksperci uważają, że wraz z rozwojem technologii AI, która już teraz pozwala na wygenerowanie obrazów w kilka chwil (kiedyś wymagało to więcej zachodu) problem niedługo jeszcze się nasili, a ucierpią na tym głównie kobiety i dziewczynki. Jakiś czas temu celem takiego ataku stała się młoda użytkowniczka Twitcha, która zorientowała się, że jej twarzy użyto w wygenerowanym przez AI obscenicznym filmie pornograficznym.

"Celem ataku nie są tylko celebryci" – stwierdziła w rozmowie z CNN Bussiness Danielle Citron, profesor na Wydziale Prawa Uniwersytetu Wirginii. "To zwykli ludzie. To pielęgniarki, studenci kierunków artystycznych i prawa, nauczyciele i dziennikarze. Widzieliśmy historie o tym, jak to wpływa na uczniów szkół średnich i żołnierzy. To dotyka każdego" – dodała.

W ubiegłym roku Francesca Mani, licealistka z Westfield High School w New Jersey odkryła, że ona oraz 30 jej koleżanek z klasy zostały "bohaterkami" erotycznych deepfake'ów, które udostępniono w internecie. Wtedy uczennica zaczęła kampanię na rzecz wprowadzenia prawa dotyczącego fałszywej pornografii na poziomie federalnym.

Czy przed zostaniem wykorzystanym w taki sposób można się jakoś obronić? David Jones z firmy świadczącej usługi IT Firewall Technical radzi, by w miarę możliwości ustawić swoje profile w mediach społecznościowych jako prywatne, by dostęp do naszych zdjęć był ograniczony.

Tym niemniej zaznacza, że jeśli ktoś bardzo będzie chciał wykorzystać nasze fotografie, takie zabezpieczenia go nie zatrzymają, gdyż już teraz hakerzy potrafią wykraść zdjęcia ze smartfonów, choć w ostatnich latach zdarzało się to głównie celebrytkom.