Wielka Brytania zapowiedziała wprowadzenie przepisów umożliwiających firmom technologicznym oraz organizacjom zajmującym się ochroną dzieci testowanie narzędzi sztucznej inteligencji pod kątem generowania obrazów, które przedstawiają wykorzystywanie seksualne dzieci. Ma to pozwolić na zweryfikowanie, czy modele są wyposażone w odpowiednie zabezpieczenia zapobiegające tworzeniu tego typu treści – pisze theguardian.com.
Przypomnijmy, że zgodnie z danymi Internet Watch Foundation (IWF), w pierwszej połowie 2025 roku wykryto ponad 1,2 tys. filmów generowanych przez AI, przedstawiających wykorzystywanie seksualne dzieci. Co więcej, nagrania te zostały zidentyfikowane w ramach śledztwa, które wykazało, że liczba adresów URL zawierających takie treści w tym samym okresie wzrosła o 400 proc.
Czytaj więcej: Rośnie liczba stworzonych przez AI materiałów przedstawiających wykorzystanie seksualne dzieci
Jak czytamy, w ramach nowych przepisów rząd udzieli wybranym firmom technologicznym oraz organizacjom zajmującym się bezpieczeństwem dzieci zgody na badanie modeli sztucznej inteligencji, na których opierają się m.in. chatboty, takie jak ChatGPT, oraz generatory obrazów, takie jak Veo 3. Testy te mają na celu upewnienie się, że modele posiadają zabezpieczenia zapobiegające tworzeniu treści przedstawiających wykorzystywanie seksualne dzieci – dowiadujemy się.
Według Kanishki Narayana, ministra ds. sztucznej inteligencji i bezpieczeństwa online, działania te mogą pozwolić na wcześniejsze wykrycie potencjalnego zagrożenia w modelach AI, zapobiegając tym samym pojawianiu się w internecie materiałów przedstawiających wykorzystywanie seksualne dzieci – czytamy.
Źródło podaje, że zmiany w prawie mają zostać wprowadzone ze względu na fakt, że tworzenie i posiadanie wspomnianych materiałów jest nielegalne. Oznacza to, że twórcy technologii AI oraz inne podmioty nie mogą generować tego typu obrazów w ranach testów. Do tej pory musiały więc czekać, aż wygenerowane przez AI treści przedstawiające wykorzystywanie seksualne dzieci trafią do internetu, aby móc na nie reagować. Nowe przepisy mają rozwiązać ten problem, pozwalając na przeciwdziałanie powstawaniu takich materiałów u źródła.
Zmiany zostaną wprowadzone przez rząd jako poprawki do ustawy o przestępczości i policji. To akt prawny, który reguluje również kwestie posiadania, tworzenia i rozpowszechniania modeli AI zaprojektowanych do generowania materiałów przedstawiających wykorzystywanie seksualne dzieci. (ao)
Źródło: Tech companies and UK child safety agencies to test AI tools’ ability to create abuse images, Dan Milmo, 12.11.2025


