Co czwarta osoba uważa, że nie ma nic złego w tworzeniu i udostępnianiu deepfake’ów o charakterze seksualnym lub pozostaje wobec tego obojętna – nawet jeśli osoby przedstawione w takich materiałach nie wyraziły na to zgody. Tak prezentują się wyniki badania zleconego przez brytyjską policję. Funkcjonariusze ostrzegają, że sztuczna inteligencja przyspiesza eskalację przemocy wobec kobiet i dziewcząt (z ang. Violence Against Women and Girls – VAWG), a firmy technologiczne są współwinne temu zjawisku – donosi theguardian.com.
Badanie przeprowadzono na grupie 1,7 tys. osób i zostało zlecone przez biuro głównego doradcy naukowego brytyjskiej policji. Wynika z niego, że 13 proc. respondentów nie widzi nic złego w tworzeniu i udostępnianiu deepfake’ów o charakterze seksualnym lub intymnym, czyli cyfrowo zmodyfikowanych materiałów powstałych z użyciem AI bez zgody osoby w nich przedstawionej. Kolejne 12 proc. ankietowanych wyraziło neutralne stanowisko wobec moralnej i prawnej dopuszczalności tworzenia i rozpowszechniania tego typu treści – dowiadujemy się.
Nadinspektor detektyw Claire Hammond z krajowego centrum ds. VAWG i ochrony ludności zwróciła uwagę, że „udostępnianie czyichś intymnych zdjęć bez ich zgody – niezależnie od tego, czy są prawdziwe, czy nie – jest głęboko naruszające”. W odniesieniu do wyników badania podkreśliła także, że „rozwój technologii AI przyspiesza epidemię przemocy wobec kobiet i dziewcząt na całym świecie” – czytamy.
„Firmy technologiczne są współwinne temu zjawisku – tworzenie i udostępnianie materiałów o charakterze nadużycia stało się tak proste, jak kliknięcie jednego przycisku. Muszą natychmiast podjąć działania, aby to powstrzymać” – dodała Hammond, cytowana przez źródło.
Funkcjonariuszka wezwała też ofiary deepfake’ów do zgłaszania wszelkich niepokojących materiałów policji, zaznaczając, że „to poważne przestępstwo” i zapewnią odpowiednie wsparcie. „Nikt nie powinien cierpieć w milczeniu ani odczuwać wstydu” – przekazała Hammond.
Jak zauważa źródło, tworzenie deepfake’ów o charakterze seksualnym bez zgody jest przestępstwem na mocy nowej ustawy o danych (Data Act).
Czytaj też: Tworzenie deepfaków o charakterze seksualnym ma być karalne w Wielkiej Brytanii
Inny raport przygotowany przez firmę doradczą Crest Advisory, zajmującą się sprawami karnymi i wymiarem sprawiedliwości, wykazał, że 7 proc. respondentów zostało przedstawionych w deepfake’u o charakterze seksualnym lub intymnym. Z tej grupy tylko 51 proc. osób zgłosiło to policji. Wśród badanych, którzy nikomu o tym nie powiedzieli, najczęściej podawanymi powodami były wstyd oraz niepewność, czy przestępstwo zostanie potraktowane poważnie – czytamy.
Tworzenie i udostępnianie deepfake’ów było częściej uważane za akceptowalne przez mężczyzn poniżej 45. roku życia. Grupa ta częściej oglądała także pornografię w internecie, zgadzała się z mizoginistycznymi poglądami i miała pozytywne nastawienie do sztucznej inteligencji. W raporcie zaznaczono jednak, że związek między wiekiem i płcią a tymi poglądami nie jest wystarczająco wyraźny i wymaga dalszych badań.
Jak wynika z raportu, jeden na 20 badanych przyznał, że w przeszłości stworzył deepfake’a, a ponad jedna na dziesięć osób zadeklarowała, że zrobiłaby to w przyszłości. Dwie trzecie respondentów stwierdziło, że widziało lub mogło widzieć deepfake’a. (ao)
Źródło: theguardian.com, One in four unconcerned by sexual deepfakes created without consent, survey finds, Matthew Weaver. 24.11.2025


