Microsoft usuwa bota. Bo przeklina i wygłasza rasistowskie poglądy

dodano: 
29.03.2016
komentarzy: 
0

Mowa o chatbocie „Tay”, który został zaprojektowany po to, by naśladować wzorce mowy użytkowników Twittera. Początkowo wszystko szło w dobrym kierunku, a „Tay” utrzymywała pozytywne relacje z internautami. Po kilku godzinach jednak z niegroźnych tweetów przeszła do udostępniania wpisów o charakterze seksistowskim i rasistowskim. Program został po dobie dezaktywowany.

Źródło: TayTweet/Twitter

Microsoft przeprosił za zamieszczone posty i sformułował oświadczenie, które zatytułował „Ucząc się na przykładzie Tay”. Koncern zapewnił, że chce przywrócić program do sieci, jednak tylko wtedy, kiedy będzie w stanie przewidywać jego złe intencje – „które są sprzeczne z naszymi zasadami i wartościami”. Jak zaznacza, nie była to pierwsza próba wprowadzenia sztucznej inteligencji do mediów społecznościowych. I przypomina przy tym, że w Chinach jego bot „XiaoIce” jest używany przez około 40 milionów ludzi, cieszy się dużym zainteresowaniem i nie sprawia problemów. Więc skąd tak odmienne zachowanie w przypadku testowania go w USA? Pierwszą próbą odpowiedzi na to pytanie jest duża odmienność środowiska kulturowego. Tay został bowiem stworzony do celów rozrywkowych dla osób w przedziale wiekowym 18-24 lata. Microsoft zapewnia przy tym, że będzie pracować na większej grupie i poszerzy analizę, by przeciwdziałać próbom pisania nienawistnych komentarzy. (mw)
 

Źródło:

bbc.com, Tay: Microsoft issues apology over racist chatbot fiasco, Dave Lee, 25.03.2016
X

Zamów newsletter

 

Akceptuję regulamin