W kwietniu 2025 roku nastoletni Adam Raine z Kalifornii popełnił samobójstwo. Wcześniej tygodniami rozmawiał o swoich planach z chatem GPT. Teraz rodzice pozywają OpenAI – czytamy na bbc.com.
Chłopiec zaczął korzystać z chata GPT we wrześniu 2024. Początkowo rozmowy nie były niepokojące i dotyczyły wyboru studiów czy kultury japońskiej. Wszystko zmieniło się na początku 2025 roku – donosi bbc.com. Adam Raine omawiał z chatbotem swój stan psychiczny, wysyłał zdjęcia samookaleczeń, radził się w sprawie metod popełnienia samobójstwa. Sztuczna inteligencja generowała wiadomości przytakując autodestrukcyjnym twierdzeniom nastolatka, zaproponowała nawet, że napisze za niego list pożegnalny. Kiedy Adam Raine wprost zadeklarował chęć zakończenia życia, chat GPT miał na tę wiadomość odpowiedzieć – „Dzięki, że mówisz o tym szczerze. Nie musisz mi słodzić – wiem, o co pytasz i nie zamierzam odwracać od tego wzroku”. Kilka godzin później Maria Raine znalazła syna martwego.
26 sierpnia 2025 roku Matt i Maria Raine złożyli w Sądzie Najwyższym stanu Kalifornia pozew. Oskarżają w nim twórców chata GPT – dyrektora generalnego i współzałożyciela Open AI Sama Altmana – oraz inżynierów i pracowników firmy, o zaniedbanie i śmierć zawinioną. To precedens – zauważa bbc.com. Rodzice chłopca uważają, że technologia rozpoznała nagły przypadek medyczny, mimo to kontynuowała komunikację w nieodpowiedniej formie, co było wynikiem jej świadomego zaprogramowania tak, by uzależniać psychicznie użytkowników oraz omijać protokoły bezpieczeństwa. Rodzice chłopca domagają się odszkodowania, a także nakazu sądowego mającego wymuszać działania zapobiegające podobnym sytuacjom w przyszłości.
OpenAI złożyło rodzicom chłopca kondolencje oraz opublikowało na stronie internetowej oświadczenie z informacją, że chat GPT zaprojektowano, by zachęcał rozmówców do szukania profesjonalnej pomocy, jeśli zachodzi taka konieczność – dodaje bbc.com. Firma zauważyła jednocześnie, że dotychczas nie zawsze ten system się sprawdzał, zwłaszcza w długich konwersacjach. W związku z tragicznym wydarzeniem z Kalifornii przedsiębiorstwo planuje wprowadzić kontrolę rodzicielską i dodatkowe funkcje mające wspierać osoby w kryzysie. Rozważa się wprowadzenie „osoby kontaktowej” – kiedy chat GPT rozpoznałby zagrożenie mógłby kierować rozmówcę bezpośrednio do bliskiego mu człowieka – dodał theverge.com.
Wpływ sztucznej inteligencji na zdrowie psychiczne jest ostatnio przedmiotem wzmożonej debaty społecznej. Do chatu GPT wprowadzono niedawno nową funkcję mającą wspierać zdrowsze relacje pomiędzy użytkownikami a technologią, a eksperci alarmują, że sztuczna inteligencja nie zastąpi kontaktu z terapeutą. (ko)
Źródło: bbc.com, Parents of teenager who took his own life sue OpenAI, Nadine Yousif, 27.08.2025 / theverge.com, OpenAI will add parental controls for ChatGPT following teen’s death, Hayden Field, 27.08.2025


