Magazin 25.03.2016.

Microsoftov bot na Twitteru postao rasista za manje od 24 sata

ČITANJE: 1 minuta
robot
Sa ciljem da više da sazna o “razumijevanju razgovora” na društvenim mrežama, kompanija Microsoft stvorila je softver koji uči od korisnika, oponašajući jezik koji koriste. Šta je moglo da pođe po zlu?

Nakon što je u srijedu pušten u upotrebu, bot @TayandYou je za manje od 24 sata počeo da piše toliko uvrijedljive komentare, da je kompanija morala da mu ukine mogućnost pisanja tvitova i u međuvremenu obrisala određen broj njegovih postova.

Bot je doveo u pitanje postojanje Holokausta, a ženama i pripadnicima različitih manjina se obraćao neprimjerenim rječnikom i predložio genocid, piše New York Times.

Microsoft je u javnom saopštenju opisao projekat kao društveni i kulturološki eksperiment.

“Nažalost, za manje od 24 sata postali smo svjesni ujedinjenog napora pojedinih korisnika da zloupotrebe Tejine veštine. Oni su od bota zatražili da ponovi njihove pisane izjave, što je softver pokorno učinio”, izjavili su predstavnici kompanije.

Kompanija je Tej povukla sa interneta i trenutno radi na modifikacijama zahvaljujući kojima bi problem trebalo da bude riješen.

(NYTimes)