.

 

LinkedIn poprawia moderację treści

dodano: 
28.11.2023
komentarzy: 
0

W listopadzie 2023 roku LinkedIn przekazał na swoim blogu, że chce ograniczyć pojawiające się na platformie szkodliwe treści. W tym celu serwis stworzył system obrony, który obejmuje modele sztucznej inteligencji, raporty członków i ludzkich recenzentów. Dzięki niemu możliwe ma być szybkie identyfikowanie i usuwanie wiadomości naruszających „Profesjonalne zasady społeczności”. 

Do kolejki recenzji treści na platformie każdego tygodnia trafiają setki tysięcy elementów. Jedną z metod ustalania priorytetów jest FIFO, czyli First In First Out. Sposób ten ma jednak swoje wady. Należy do nich m.in. sprawdzanie przez recenzentów zarówno treści naruszających zasady, jak i tych, które nie mają z tym nic wspólnego, co zabiera cenną przepustowość. Ponadto, wykrycie treści naruszających zasady po sprawdzaniu tych prawidłowych może trwać znacznie dłużej. 

Twórcy platformy, aby zaradzić ograniczeniom powstałym przy stosowaniu FIFO, opracowali nową strukturę priorytetyzacji recenzji treści, która wykorzystuje sztuczną inteligencję i automatyzację. Dzięki niej wiadomości czekające na sprawdzenie są oceniane przez zestaw modeli AI, który oblicza prawdopodobieństwo naruszenia zasad. W ten sposób podejrzane treści są traktowane priorytetowo, dzięki czemu można je szybciej wykryć i usunąć. 

Według LinkedIna, w nowej strukturze zastosowano technicznie złożone podejście do priorytetyzacji. Wśród jej cech znajdują się m.in. dynamiczne podejście, stała aktualizacja wyników treści, obliczanie wyników prawdopodobieństwa przy użyciu modeli sztucznej inteligencji czy zwiększenie możliwości ludzkich recenzentów. 

Nowa struktura jest w stanie podejmować automatyczne decyzje dotyczące blisko 10 proc. wszystkich treści w kolejce zgodnie z ustalonym standardem precyzji. Pomaga ona odciążyć ludzkich recenzentów, którzy mogą skupić się na treściach wymagających ich sprawdzenia ze względu na wagę i niejednoznaczność. Platforma jest także w stanie skrócić średni czas potrzebny do wychwycenia treści naruszających zasady o blisko 60 proc. 

Rozwiązanie to zostało wdrożone dla postów i komentarzy. Twórcy serwisu pracują jednak nad rozszerzeniem jej zastosowania na inne produkty. (ao)

Źródło:

engineering.linkedin.com, Augmenting our content moderation efforts through machine learning and dynamic content prioritization, 27.11.2023
X

Zamów newsletter

 

Akceptuję regulamin