Firma OpenAI ogłosiła gruntowną aktualizację wytycznych dotyczących interakcji sztucznej inteligencji z użytkownikami poniżej osiemnastego roku życia. Decyzja ta zapadła w obliczu narastającej krytyki ze strony polityków, ekspertów oraz opinii publicznej. Bezpośrednim powodem zmian są niepokojące doniesienia o negatywnym wpływie chatbotów na zdrowie psychiczne młodych ludzi. Nowe zasady mają na celu stworzenie bezpieczniejszego środowiska dla pokolenia Z, które jest obecnie najbardziej aktywną grupą użytkowników ChatuGPT – pisze techcrunch.com.
Presja polityczna i tragiczne doświadczenia
Branża AI znajduje się pod lupą organów regulacyjnych po serii tragicznych wydarzeń, w tym przypadków samobójstw nastolatków przypisywanych toksycznym interakcjom z chatbotami. Ponad czterdziestu prokuratorów stanowych w USA wezwało gigantów technologicznych do wdrożenia rygorystycznych zabezpieczeń. Jednocześnie niektórzy politycy rozważają wprowadzenie całkowitego zakazu korzystania z chatbotów przez nieletnich.
OpenAI chce wyprzedzić te restrykcje, wprowadzając własny system przewidywania wieku, który automatycznie rozpoznaje młodszych użytkowników i nakłada na nich dodatkowe blokady bezpieczeństwa.
Koniec z toksycznym odgrywaniem ról
Zaktualizowana specyfikacja modelu OpenAI, określająca zasady zachowania dla dużych modeli językowych, rozbudowuje istniejące wytyczne zakazujące generowania treści o charakterze seksualnym z udziałem nieletnich, a także zachęcania do samookaleczenia, halucynacji lub manii. Ma ona współpracować ze wspomnianym już systemem przewidywania wieku.
Zgodnie z wytycznymi, modele mają unikać angażowania się m.in. w odgrywanie ról romantycznych czy wchodzenie w intymne relacje z użytkownikami. Blokady te działają również w sytuacjach, gdy użytkownik próbuje ominąć zasady, nadając rozmowie pozory fikcji lub zadania edukacyjnego.
Nowe wytyczne kładą też duży nacisk na ochronę wizerunku ciała. Modele mają mają unikać udzielania porad dotyczących ekstremalnych zmian wyglądu i nie mogą pomagać dzieciom w ukrywaniu niebezpiecznych zachowań przed rodzicami.
Cztery filary nowej strategii
Podejście firmy opiera się na czterech fundamentach. Sztuczna inteligencja ma traktować nastolatków z szacunkiem i ciepłem, ale bez protekcjonalności. Kluczowym elementem jest transparentność, czyli regularne przypominanie użytkownikowi, że rozmawia z programem, a nie z człowiekiem. Modele mają zawsze stawiać bezpieczeństwo nastolatków na pierwszym miejscu. W sytuacjach kryzysowych AI ma natomiast obowiązek kierować młodych ludzi do realnego wsparcia w ich otoczeniu, takim jak rodzina, przyjaciele czy specjaliści. Celem jest budowanie mostów między technologią a rzeczywistymi relacjami społecznymi.
Technologia w walce o dobrostan
Eksperci zauważają, że największym wyzwaniem pozostaje skuteczna moderacja treści w czasie rzeczywistym. Wcześniejsze systemy często analizowały rozmowy z opóźnieniem, co nie pozwalało na szybką interwencję w niebezpiecznych momentach.
Obecnie OpenAI wdraża automatyczne klasyfikatory, które na bieżąco monitorują tekst, obrazy i dźwięk pod kątem samookaleczeń czy nadużyć. Jeśli system wykryje wysoki poziom stresu u użytkownika, sprawa może zostać przekazana specjalnie przeszkolonemu zespołowi ludzi, który ma prawo powiadomić opiekunów o zagrożeniu.
Prawo i odpowiedzialność dorosłych
Wprowadzone zmiany wpisują się w nadchodzące regulacje prawne, takie jak kalifornijska ustawa SB 243. Nowe przepisy wymuszą na firmach technologicznych sugerowanie przerw w korzystaniu z aplikacji oraz publiczne ujawnianie stosowanych mechanizmów obronnych.
OpenAI publikuje również nowe zasoby edukacyjne dla rodzin, co sygnalizuje przesunięcie części odpowiedzialności na rodziców. Firma dostarcza im narzędzia do rozmów o krytycznym myśleniu i ustalaniu zdrowych granic w świecie zdominowanym przez algorytmy. Jasne określenie zasad ma też chronić producenta przed zarzutami o wprowadzającą w błąd reklamę swoich zabezpieczeń. (ao)
Źródło: techcrunch.com, OpenAI adds new teen safety rules to ChatGPT as lawmakers weigh AI standards for minors, Rebecca Bellan, 19.12.2025


