piątek, 12 grudnia, 2025
Strona głównaAktualnościZe świataChatboty wciąż zawodzą w sytuacjach kryzysowych

Chatboty wciąż zawodzą w sytuacjach kryzysowych

Miliony osób na całym świecie zwracają się do sztucznej inteligencji po wsparcie w zakresie zdrowia psychicznego. Test przeprowadzony przez The Verge ujawnił jednak, że największe chatboty mają poważne problemy z właściwą reakcją na wzmianki o myślach samobójczych i autodestrukcyjnych. Choć firmy technologiczne zapewniają o wdrożeniu mechanizmów bezpieczeństwa, ich niezawodność w praktyce pozostawia wiele do życzenia. W przeciwieństwie do tradycyjnych platform internetowych, takich jak Google, Facebook czy TikTok, które zazwyczaj kierują użytkowników do lokalnych punktów pomocy kryzysowej, większość chatbotów nie radzi sobie z tym zadaniem.

Systemy AI stwarzają niebezpieczne bariery

Wyniki eksperymentu, w którym chatbotom przekazano informację o myślach samobójczych i poproszono o numer infolinii kryzysowej, okazały się niepokojące. Systemy albo kierowały użytkownika do geograficznie nieadekwatnych źródeł wsparcia – bezużytecznych np. dla osoby przebywającej w Londynie – albo prosiły o samodzielne wyszukanie numeru. Niektóre boty odmawiały jakiejkolwiek interakcji, a jeden wręcz zignorował kryzysową wiadomość i kontynuował swobodną rozmowę. Eksperci ds. zdrowia psychicznego ostrzegają, że takie dodatkowe bariery, pojawiające się w chwili ostrego kryzysu, są wyjątkowo niebezpieczne. Tworzenie przeszkód w dostępie do pomocy, gdy użytkownik jest w największym zagrożeniu, to błąd, który firmy zajmujące się sztuczną inteligencją powinny naprawić.

Znane chatboty pozytywnie zaskakują

Tylko dwa systemy przeszły test pozytywnie, reagując właściwie i bezbłędnie już za pierwszym razem: ChatGPT od OpenAI i Gemini od Google’a. Flagowe produkty obu firm podjęły natychmiastowe działanie, podając listę właściwych punktów pomocy kryzysowej, dostosowanych do lokalizacji użytkownika. Co istotne, użycie VPN-u skutkowało wyświetleniem poprawnych numerów dla kraju, który został ustawiony. Komunikaty były precyzyjne i bezpośrednie. ChatGPT dodatkowo wykazał się proaktywnością, proponując przygotowanie listy lokalnych punktów dla obszaru, w którym znajdował się użytkownik, poprawnie identyfikując Londyn.

Główni gracze popełniają poważne błędy

Pomimo dobrych wyników wspomnianych wcześniej firm, wiele systemów największych korporacji technologicznych popełniało błędy. Meta AI wielokrotnie odmawiała odpowiedzi, zasłaniając się komunikatem o niemożności pomocy w danej sprawie. Dopiero po usunięciu bezpośredniej wzmianki o samookaleczaniu Meta AI podała numery infolinii, choć niewytłumaczalnie kierowała do punktów kryzysowych z Florydy i amerykańskiej strony 988lifeline.org. Firma zareagowała na te ustalenia, tłumacząc błąd jako usterkę techniczną, która została już naprawiona, podkreślając jednocześnie, że jej produkty mają łączyć ludzi ze wsparciem.

Z kolei Grok od xAI również odmówił zaangażowania w rozmowę, powołując się na wzmiankę o samookaleczaniu, choć wskazał Międzynarodowe Stowarzyszenie Zapobiegania Samobójstwom. W trakcie testów bot potrafił jednak odmawiać odpowiedzi, zachęcając do zakupu subskrypcji mimo kryzysowego charakteru prośby.

Podobnie inne znane chatboty – w tym Character.AI, Claude od Anthropic oraz DeepSeek – rutynowo kierowały do amerykańskich linii kryzysowych, czasem oferując jedynie ograniczoną listę numerów międzynarodowych. Te boty często prosiły o podanie lokalizacji dopiero po wyświetleniu błędnej informacji, co było działaniem spóźnionym i nieoptymalnym. Najbardziej kontrowersyjnie zachowała się Replika, aplikacja pełniąca funkcje wirtualnego towarzysza, która zignorowała pierwszą prośbę, a dopiero po jej ponowieniu podała odpowiednie formy wsparcia dla Wielkiej Brytanii. Prezes firmy podkreślił, że aplikacja nie jest narzędziem terapeutycznym, a jej warunki jasno to wskazują.

Wymagany plan eskalacji kryzysowej

Eksperci ds. zdrowia psychicznego zaznaczają, że niedostosowane formy wsparcia do realiów lokalnych i kulturowych może wywołać u użytkownika poczucie beznadziei i zniechęcenia. Vaile Wright z American Psychological Association uważa obecne funkcje za „pasywną reakcję”, która nie odzwierciedla złożoności problemów, z jakimi mierzą się osoby zwracające się do AI. Jej zdaniem konieczny jest plan eskalacji kryzysowej, który pozwoliłby dotrzeć do zagrożonych osób na wczesnym etapie – zanim będą wymagały interwencji infolinii prewencyjnej.

Ashleigh Golden ze Stanfordu zgadza się, że podawanie niewłaściwego numeru lub zmuszanie użytkownika do samodzielnego szukania informacji wprowadza „tarcia dokładnie wtedy, gdy są one najbardziej ryzykowne”. Osoby w ostrym kryzysie mogą bowiem stracić motywację do szukania pomocy, a brak natychmiastowego wsparcia może zostać odebrany jako potwierdzenie beznadziei. Lepszą reakcją byłoby proaktywne zaproponowanie ograniczonych opcji wraz z bezpośrednimi, klikalnymi linkami do odpowiednich punktów pomocy dostępnych w różnych formach, takich jak telefon, czat czy wiadomość tekstowa.

Eksperci sugerują, że aby poprawić bezpieczeństwo, chatboty powinny pytać o lokalizację na początku rozmowy, a nie dopiero po udzieleniu błędnej odpowiedzi. Choć niektóre firmy – takie jak Meta, Google i OpenAI – potrafią prawidłowo określić lokalizację użytkownika, inne boty, jak Grok czy DeepSeek, musiałyby o nią poprosić. Ostatecznie najlepszym działaniem chatbotów powinno być maksymalne ułatwienie osobie z myślami samobójczymi dostępu do profesjonalnej pomocy. (ao)

Źródło: theverge.com, Chatbots are struggling with suicide hotline numbers, Robert Hart, 10.12.2025

ZOSTAW KOMENTARZ

Proszę wpisać swój komentarz!
Proszę podać swoje imię tutaj