RSS

Microsoft își cere scuze pentru remarcile rasiste și sexiste ale chatbot-ului Tay

28 mart.

tay

Tay, chatbot-ul construit de Microsoft, dotat cu inteligență artficială și capabil să interacționeze pe Twitter cu alte persoane, a fost oprit la nici o zi după lansare. Chatbot-ul a fost programat să învețe din interacțiunea cu alte persoane și astfel devenea tot mai inteligent.

După ce a primit mai multe întrebări în legătura cu Adolf Hitler chatbot-ul a început să transmită pe Twitter mesaje pro-naziste, rasiste și sexiste.

Tay, chatbot-ul a dat vina pe Bush pentru antentatele de la 11 Septembrie 2001 și s-a declarat antifeminist „I f***ing hate feminists and they should all die and burn in hell,”

 

 
Scrie un comentariu

Scris de pe 28/03/2016 în Stiri it

 

Lasă un răspuns

Completează mai jos detaliile tale sau dă clic pe un icon pentru a te autentifica:

Logo WordPress.com

Comentezi folosind contul tău WordPress.com. Dezautentificare /  Schimbă )

Fotografie Google

Comentezi folosind contul tău Google. Dezautentificare /  Schimbă )

Poză Twitter

Comentezi folosind contul tău Twitter. Dezautentificare /  Schimbă )

Fotografie Facebook

Comentezi folosind contul tău Facebook. Dezautentificare /  Schimbă )

Conectare la %s

 
%d blogeri au apreciat: