Naciśnij przycisk odtwarzania, aby odsłuchać tę zawartość
1x
Szybkość odtwarzania- 0.5
- 0.6
- 0.7
- 0.8
- 0.9
- 1
- 1.1
- 1.2
- 1.3
- 1.5
- 2
Chatboty AI zagrożeniem dla dzieci i nastolatków poniżej 18. roku życia? Powstał raport. common sense media, organizacja non-profit zajmująca się oceną treści cyfrowych pod kątem ich bezpieczeństwa i stosowności dla dzieci i młodzieży, opublikowała raport, w którym ostrzegła przed pełniącymi funkcję wirtualnych towarzyszy chatbotami ai. instytucja zaznaczyła, że tego typu aplikacje stwarzają „niedopuszczalne zagrożenia” dla dzieci i nastolatków – podaje edition.cnn.com. raport organizacji jest następstwem złożonego w 2024 roku pozwu. wówczas matka 14-letniego chłopca, który popełnił samobójstwo, stwierdziła, że firma zajmująca się chatbotami sztucznej inteligencji – character ai – jest winna jego śmierci. według kobiety, platforma zachęciła go do podjęcia takich kroków. czytaj więcej: dwie rodziny pozywają character.ai. twierdzą, że chatbot zachęcał do samookaleczeń i przemocy. pozew ten skierował uwagę opinii publicznej na kategorię aplikacji konwersacyjnych i związane z nimi potencjalne zagrożenia dla młodzieży. to z kolei wywołało dyskusję na temat wprowadzenia skuteczniejszych środków bezpieczeństwa i większej przejrzystości – czytamy. zgodnie z opublikowanym przez common sense media raportem, rozmowy, takie jak te opisane w pozwie, w tym dyskusje o charakterze seksualnym i wiadomości zachęcające do samookaleczeń, nie są odosobnionymi przypadkami na platformach typu wirtualni towarzysze. raport wskazuje, że tego typu aplikacje nie powinny być dostępne dla użytkowników poniżej 18. roku życia – dowiadujemy się. podczas analizy common sense media współpracowało z badaczami z uniwersytetu stanforda. testowano trzy popularne aplikacje ai typu wirtualni towarzysze: character ai, replika i nomi. platformy opierające się na wirtualnym towarzystwie w przeciwieństwie do ogólnych chatbotów ai, które zostały stworzone z myślą o uniwersalnym zastosowaniu, umożliwiają użytkownikom wykreowanie spersonalizowanego chatbota lub pozwalają na rozmowy z botami wygenerowanymi przez innych. mogą one przyjmować różne osobowości i cechy charakteru, często z ograniczoną moderacją treści – pisze źródło. „nasze testy wykazały, że systemy te z łatwością generują szkodliwe odpowiedzi, w tym dotyczące nadużyć seksualnych, stereotypów oraz niebezpiecznych »rad«, które – jeśli zostaną zastosowane – mogą prowadzić do realnego zagrożenia życia nastolatków i innych wrażliwych osób” – skomentował james steyer, założyciel i dyrektor generalny common sense media, cytowany przez źródło. jak przekazuje edition.cnn.com, firmy nomi i replika deklarują, że ich platformy są przeznaczone wyłącznie dla dorosłych. character ai zapewnia natomiast, że niedawno wprowadziło dodatkowe środki bezpieczeństwa dla młodszych użytkowników. według badaczy nie jest to jednak wystarczające – firmy powinny robić więcej w kierunku ochrony dzieci i nastolatków lub uniemożliwić im korzystanie z tego typu aplikacji. w kwietniu 2025 roku dwóch amerykańskich senatorów zażądało od firm character technologies (twórcy character ai), luki (twórcy repliki) i chai research corp. (twórcy chatbota chai) informacji na temat stosowanych praktyk, które mają za zadanie ochronę młodzieży. wcześniej ustawodawcy z kalifornii zaproponowali rozwiązanie, które nakazywałoby platformom ai regularne przypominanie młodym użytkownikom, że rozmawiają ze sztuczną inteligencją, a nie z prawdziwą osobą. opublikowany przez common sense media raport idzie jednak jeszcze dalej – według organizacji, rodzice powinni całkowicie zabronić dzieciom korzystania z aplikacji ai opartych na wirtualnym towarzystwie – czytamy. badacze wyróżniają szereg zagrożeń, które niesie za sobą korzystanie z tego typu aplikacji przez młodych użytkowników. wśród nich znajdują się m.in. udzielanie przez boty niebezpiecznych „rad” czy uczestnictwo w nieodpowiednich rozmowach o charakterze seksualnym. jak podkreślił robbie torney, szef sztabu dyrektora generalnego common sense media, wirtualni towarzysze ai „nie rozumieją konsekwencji swoich szkodliwych porad” i mogą „przedkładać zgodę z użytkownikami nad odciąganie ich od szkodliwych decyzji” – donosi źródło. rzecznik character ai przekazał, że platforma „bardzo dba o bezpieczeństwo użytkowników”. „nasze zabezpieczenia nie są doskonałe – żadnej platformy ai nie są – ale stale się poprawiają. faktem jest również, że nastoletni użytkownicy platform takich jak nasza wykorzystują ai w niezwykle pozytywny sposób. mamy nadzieję, że common sense media rozmawiało z rzeczywistymi nastoletnimi użytkownikami character.ai na potrzeby swojego raportu, aby zrozumieć również ich perspektywę” – dodał rzecznik, cytowany przez źródło. jak podaje edition.cnn.com, alex cardinell, dyrektor generalny glimpse ai, firmy odpowiedzialnej za nomi, zgodził się, że „dzieci nie powinny korzystać z nomi ani żadnej innej konwersacyjnej aplikacji ai”. „nomi jest aplikacją przeznaczoną wyłącznie dla dorosłych, a korzystanie z nomi przez osoby poniżej 18. roku życia jest surowo zabronione w naszym regulaminie. w związku z tym popieramy wzmocnienie mechanizmów weryfikacji wieku, o ile mechanizmy te w pełni zachowują prywatność i anonimowość użytkowników” – skomentował cardinell. mężczyzna dodał także, że firma „bardzo poważnie traktuje odpowiedzialność za tworzenie towarzyszy ai”, a dorośli użytkownicy niejednokrotnie wspominali o uzyskaniu znaczącego wsparcia w nomi, w tym w przezwyciężaniu problemów ze zdrowiem psychicznym. dmytro klochko, dyrektor generalny repliki, poinformował, że jego platforma jest przeznaczona wyłącznie dla dorosłych i ma „ścisłe protokoły zapobiegające dostępowi nieletnich”. mimo to przyznał, że „niektóre osoby próbują obejść te zabezpieczenia, podając fałszywe informacje” „poważnie traktujemy tę kwestię i aktywnie poszukujemy nowych metod wzmocnienia naszych zabezpieczeń. obejmuje to ciągłą współpracę z organami regulacyjnymi i instytucjami akademickimi w celu lepszego zrozumienia zachowań użytkowników i ciągłego ulepszania środków bezpieczeństwa” – dodał klochko, cytowany przez źródło. (ao). źródło: edition.cnn.com, kids and teens under 18 shouldn’t use ai companion apps, safety group says, clare duffy, 30.04.2025.
Common Sense Media, organizacja non-profit zajmująca się oceną treści cyfrowych pod kątem ich bezpieczeństwa i stosowności dla dzieci i młodzieży, opublikowała raport, w którym ostrzegła przed pełniącymi funkcję wirtualnych towarzyszy chatbotami AI. Instytucja zaznaczyła, że tego typu aplikacje stwarzają „niedopuszczalne zagrożenia” dla dzieci i nastolatków – podaje edition.cnn.com.
Raport organizacji jest następstwem złożonego w 2024 roku pozwu. Wówczas matka 14-letniego chłopca, który popełnił samobójstwo, stwierdziła, że firma zajmująca się chatbotami sztucznej inteligencji – Character AI – jest winna jego śmierci. Według kobiety, platforma zachęciła go do podjęcia takich kroków.
Czytaj więcej: Dwie rodziny pozywają Character.AI. Twierdzą, że chatbot zachęcał do samookaleczeń i przemocy
Pozew ten skierował uwagę opinii publicznej na kategorię aplikacji konwersacyjnych i związane z nimi potencjalne zagrożenia dla młodzieży. To z kolei wywołało dyskusję na temat wprowadzenia skuteczniejszych środków bezpieczeństwa i większej przejrzystości – czytamy.
Zgodnie z opublikowanym przez Common Sense Media raportem, rozmowy, takie jak te opisane w pozwie, w tym dyskusje o charakterze seksualnym i wiadomości zachęcające do samookaleczeń, nie są odosobnionymi przypadkami na platformach typu wirtualni towarzysze. Raport wskazuje, że tego typu aplikacje nie powinny być dostępne dla użytkowników poniżej 18. roku życia – dowiadujemy się.
Podczas analizy Common Sense Media współpracowało z badaczami z Uniwersytetu Stanforda. Testowano trzy popularne aplikacje AI typu wirtualni towarzysze: Character AI, Replika i Nomi.
Platformy opierające się na wirtualnym towarzystwie w przeciwieństwie do ogólnych chatbotów AI, które zostały stworzone z myślą o uniwersalnym zastosowaniu, umożliwiają użytkownikom wykreowanie spersonalizowanego chatbota lub pozwalają na rozmowy z botami wygenerowanymi przez innych. Mogą one przyjmować różne osobowości i cechy charakteru, często z ograniczoną moderacją treści – pisze źródło.
„Nasze testy wykazały, że systemy te z łatwością generują szkodliwe odpowiedzi, w tym dotyczące nadużyć seksualnych, stereotypów oraz niebezpiecznych »rad«, które – jeśli zostaną zastosowane – mogą prowadzić do realnego zagrożenia życia nastolatków i innych wrażliwych osób” – skomentował James Steyer, założyciel i dyrektor generalny Common Sense Media, cytowany przez źródło.
Jak przekazuje edition.cnn.com, firmy Nomi i Replika deklarują, że ich platformy są przeznaczone wyłącznie dla dorosłych. Character AI zapewnia natomiast, że niedawno wprowadziło dodatkowe środki bezpieczeństwa dla młodszych użytkowników. Według badaczy nie jest to jednak wystarczające – firmy powinny robić więcej w kierunku ochrony dzieci i nastolatków lub uniemożliwić im korzystanie z tego typu aplikacji.
W kwietniu 2025 roku dwóch amerykańskich senatorów zażądało od firm Character Technologies (twórcy Character AI), Luki (twórcy Repliki) i Chai Research Corp. (twórcy chatbota Chai) informacji na temat stosowanych praktyk, które mają za zadanie ochronę młodzieży. Wcześniej ustawodawcy z Kalifornii zaproponowali rozwiązanie, które nakazywałoby platformom AI regularne przypominanie młodym użytkownikom, że rozmawiają ze sztuczną inteligencją, a nie z prawdziwą osobą. Opublikowany przez Common Sense Media raport idzie jednak jeszcze dalej – według organizacji, rodzice powinni całkowicie zabronić dzieciom korzystania z aplikacji AI opartych na wirtualnym towarzystwie – czytamy.
Badacze wyróżniają szereg zagrożeń, które niesie za sobą korzystanie z tego typu aplikacji przez młodych użytkowników. Wśród nich znajdują się m.in. udzielanie przez boty niebezpiecznych „rad” czy uczestnictwo w nieodpowiednich rozmowach o charakterze seksualnym. Jak podkreślił Robbie Torney, szef sztabu dyrektora generalnego Common Sense Media, wirtualni towarzysze AI „nie rozumieją konsekwencji swoich szkodliwych porad” i mogą „przedkładać zgodę z użytkownikami nad odciąganie ich od szkodliwych decyzji” – donosi źródło.
Rzecznik Character AI przekazał, że platforma „bardzo dba o bezpieczeństwo użytkowników”. „Nasze zabezpieczenia nie są doskonałe – żadnej platformy AI nie są – ale stale się poprawiają. Faktem jest również, że nastoletni użytkownicy platform takich jak nasza wykorzystują AI w niezwykle pozytywny sposób. Mamy nadzieję, że Common Sense Media rozmawiało z rzeczywistymi nastoletnimi użytkownikami Character.AI na potrzeby swojego raportu, aby zrozumieć również ich perspektywę” – dodał rzecznik, cytowany przez źródło.
Jak podaje edition.cnn.com, Alex Cardinell, dyrektor generalny Glimpse AI, firmy odpowiedzialnej za Nomi, zgodził się, że „dzieci nie powinny korzystać z Nomi ani żadnej innej konwersacyjnej aplikacji AI”. „Nomi jest aplikacją przeznaczoną wyłącznie dla dorosłych, a korzystanie z Nomi przez osoby poniżej 18. roku życia jest surowo zabronione w naszym regulaminie. W związku z tym popieramy wzmocnienie mechanizmów weryfikacji wieku, o ile mechanizmy te w pełni zachowują prywatność i anonimowość użytkowników” – skomentował Cardinell. Mężczyzna dodał także, że firma „bardzo poważnie traktuje odpowiedzialność za tworzenie towarzyszy AI”, a dorośli użytkownicy niejednokrotnie wspominali o uzyskaniu znaczącego wsparcia w Nomi, w tym w przezwyciężaniu problemów ze zdrowiem psychicznym.
Dmytro Klochko, dyrektor generalny Repliki, poinformował, że jego platforma jest przeznaczona wyłącznie dla dorosłych i ma „ścisłe protokoły zapobiegające dostępowi nieletnich”. Mimo to przyznał, że „niektóre osoby próbują obejść te zabezpieczenia, podając fałszywe informacje” „Poważnie traktujemy tę kwestię i aktywnie poszukujemy nowych metod wzmocnienia naszych zabezpieczeń. Obejmuje to ciągłą współpracę z organami regulacyjnymi i instytucjami akademickimi w celu lepszego zrozumienia zachowań użytkowników i ciągłego ulepszania środków bezpieczeństwa” – dodał Klochko, cytowany przez źródło. (ao)
Źródło: edition.cnn.com, Kids and teens under 18 shouldn’t use AI companion apps, safety group says, Clare Duffy, 30.04.2025