OpenAI jakiś czas temu rozpoczęło testy systemu automatycznej zmiany na „bezpieczny tryb” i wprowadziło do chatbota kontrolę rodzicielską. Nie wszyscy użytkownicy są jednak zadowoleni z nowych rozwiązań – pisze techcrunch.com.
Czytaj też: ChatGPT z pierwszymi zmianami po śmierci nastolatka
Funkcje bezpieczeństwa wdrożono w odpowiedzi na liczne przypadki, w których modele ChatuGPT utwierdzały użytkowników w szkodliwych przekonaniach, zamiast kierować rozmowę na neutralne tematy – czytamy.
Obecnie OpenAI mierzy się z pozwem złożonym przez rodziców nastoletniego chłopca z Kalifornii, który popełnił samobójstwo. Przez tygodnie miał rozmawiać o swoich planach z ChatemGPT.
Czytaj więcej: Kto jest winny śmierci 16-letniego chłopca? Rodzice pozywają OpenAI
System zmiany na „bezpieczny tryb” ma wykrywać rozmowy o emocjonalnym i wrażliwym charakterze, a następnie automatycznie przełączać w trakcie czatu na model GPT-5. Według firmy jest on najlepiej przygotowany do zadań wymagających najwyższego poziomu bezpieczeństwa. Modele GPT-5 zostały przeszkolone z nową funkcją bezpieczeństwa, którą nazwano „bezpiecznymi odpowiedziami”. Umożliwia ona udzielanie bezpiecznych odpowiedzi na wrażliwe pytania, zamiast po prostu odmawiać kontynuowania rozmowy – dowiadujemy się.
To zupełne przeciwieństwo poprzednich modeli OpenAI. Niektóre z nich zostały bowiem zaprojektowane tak, aby być zgodne z rozmówcą oraz szybko odpowiadać na pytania. Szczególnie krytykowany był model GPT-4o, który cechował się nadmiernie pochlebnym i zgodnym charakterem.
Choć wiele osób pozytywnie oceniło nowe funkcje bezpieczeństwa, część użytkowników stwierdziła, że OpenAI „traktuje dorosłych jak dzieci”. Według krytyków wprowadzonych rozwiązań firma zbyt ostrożnie obchodzi się z osobami korzystającymi z chatbotów, co według nich pogarsza jakość oferowanych przez nią usług – czytamy.
Podobne opinie pojawiały się w kontekście kontroli rodzicielskiej. Niektórzy użytkownicy chwalili możliwość monitorowania przez rodziców korzystania z AI przez ich dzieci. Inni twierdzili natomiast, że w ten sposób firma traktuje dorosłych niepoważnie.
Jak podaje źródło, kontrole pozwalają rodzicom na dostosowanie korzystania przez nastolatków z chatbotów. Mogą oni ustalić godziny ciszy, wyłączyć tryb głosowy i pamięć, zablokować generowanie obrazów czy zrezygnować z udostępniania danych do trenowania modeli. Jeśli natomiast system wykryje potencjalne zagrożenie, sprawa zostanie przekazana specjalnie przeszkolonym osobom, które ocenią sytuację. OpenAI przekazało, że „w przypadku oznak ostrego kryzysu, skontaktuje się z rodzicami za pośrednictwem e-maila, wiadomości SMS oraz powiadomienia push na telefon, o ile nie zrezygnowali z takiej formy kontaktu”. (ao)
Źródło: techcrunch.com, OpenAI rolls out safety routing system, parental controls on ChatGPT, Rebecca Bellan, 29.09.2025


