Instagram wprowadza nową funkcję bezpieczeństwa dla kont objętych nadzorem rodzicielskim. Platforma zacznie wysyłać ostrzeżenia do rodziców, jeśli ich dzieci w wieku 13–17 lat będą wielokrotnie wyszukiwać hasła wyraźnie związane z samobójstwem lub samookaleczeniem – donosi theguardian.com.
Jak wspomina źródło, powiadomienia będą wysyłane e-mailem, SMS-em, przez WhatsAppa lub bezpośrednio w aplikacji, w zależności od preferencji rodzica.
Ustawienie nadzoru rodzicielskiego wymaga zgody zarówno nastolatka, jak i rodzica. Konto dziecka może kontrolować tylko jeden opiekun, a program działa wyłącznie po wysłaniu zaproszenia przez platformę. Ostrzeżenia będą wysyłane jedynie rodzicom, którzy włączyli nadzór w swoich kontach na Instagramie.
Meta podkreśla, że celem powiadomień jest umożliwienie szybkiej interwencji, przy jednoczesnym unikaniu nadmiernej liczby komunikatów, które mogłyby zmniejszyć ich skuteczność.
Sygnał dla rodziców
Nowe ostrzeżenia pozwalają rodzicom reagować, gdy wyszukiwania nastolatka sugerują, że może potrzebować wsparcia. Funkcja ma uzupełniać dotychczasowe narzędzia bezpieczeństwa, takie jak blokowanie szkodliwych treści w wynikach wyszukiwania i kierowanie użytkowników do linii wsparcia – czytamy.
Działania Mety pod lupą
Wprowadzenie funkcji zbiega się z trwającymi w Stanach Zjednoczonych procesami sądowymi, w których firma jest oskarżana o wyrządzanie szkód dzieciom. Sprawa w Los Angeles dotyczy tego, czy platformy należące do Mety celowo uzależniają i szkodzą nieletnim. Równolegle w Nowym Meksyku toczy się postępowanie mające ustalić, czy firma nie chroniła dzieci przed wykorzystywaniem seksualnym w swoich serwisach.
Czytaj więcej: Pozwano cztery platformy społecznościowe. Ukrywały dane o szkodliwym wpływie na psychikę nastolatków?
Właściciel Mety, Mark Zuckerberg, i szef Instagrama, Adam Mosseri, konsekwentnie podważają twierdzenia dotyczące uzależnienia od mediów społecznościowych – pisze źródło.
Podczas przesłuchań Zuckerberg stwierdził, że badania naukowe nie potwierdzają, aby media społecznościowe same w sobie powodowały szkody psychiczne. Mosseri określił intensywne korzystanie z Instagrama przez dzieci jako „problemowe używanie”, porównując je do zbyt długiego oglądania telewizji.
Psycholodzy zaznaczają, że uzależnienie od mediów społecznościowych nie jest uznawane za oficjalną diagnozę, jednak badania dowodzą, że nadmierne korzystanie może szkodzić młodym użytkownikom.
Niebezpieczne rozmowy z AI
Jak podaje źródło, Meta zapowiada także podobne powiadomienia dla rodziców dotyczące interakcji ich dzieci ze sztuczną inteligencją. System ma informować opiekunów, jeśli nastolatek spróbuje prowadzić rozmowy z AI na tematy związane z samobójstwem lub samookaleczeniem.
Firma deklaruje, że w najbliższych miesiącach przekaże więcej szczegółów na temat tego rozwiązania.
„Meta przerzuca odpowiedzialność na rodziców”
Nowe narzędzia spotkały się z krytyką grup działających na rzecz ochrony dzieci, takich jak Fairplay. Josh Golin, dyrektor wykonawczy organizacji, wskazał, że „Meta przerzuca odpowiedzialność na rodziców, zamiast naprawiać niebezpieczne błędy w sposobie projektowania algorytmów i platform”.
„Rodzice nie powinni być wprowadzani w błąd, myśląc, że Instagram jest bezpieczny dla dzieci” – wyjaśnił Golin. Jak podkreślił, „wszystkie dzieci zasługują na ochronę, niezależnie od tego, czy ich rodzice korzystają z narzędzi nadzoru Mety” – dowiadujemy się. (ao)
Źródło: theguardian.com, Instagram to alert parents if teens repeatedly search self-harm terms, Dara Kerr, 27.02.2026


