據(jù)英國《每日郵報(bào)》3月25日報(bào)道,微軟在Twitter上推出了一位清純可人的AI(人工智能,Artificial Intelligence)少女聊天機(jī)器人,叫Tay,讓她可以通過和網(wǎng)友們對話來學(xué)習(xí)怎樣交談。結(jié)果還不到一天她就被網(wǎng)友們教成了個(gè)“滿口政治不正確的納粹”,各種爆臟話,不但說自己喜歡希特勒,還說911事件是小布什所為。嚇得微軟匆忙把她給關(guān)了,然后開始刪帖了……
Tay可以模擬少女的樣子與人交流,該公司的本意是通過Tay來提高自家語音識別軟件的客服質(zhì)量,讓用戶有如沐春風(fēng)的感覺。而且剛上線時(shí)Tay確實(shí)是個(gè)好姑娘,但后來事態(tài)有點(diǎn)無法控制了。 微博用戶@fall_ark 從外媒翻譯了一些網(wǎng)友保存的截圖,能清楚的看到她的變化……
注意時(shí)間,23日還是開心的打招呼,24日就是…… 想要與Tay交流,只需登陸Twitter找到@tayandyou賬號就好,此外,你還可以在Kik或GroupMe上加它為好友。 微軟的開發(fā)者專門教了Tay許多年輕人常用的俚語,它也知道泰勒·斯威夫特和侃爺?shù)瘸绷髅餍?,與它聊天你會發(fā)現(xiàn)這小姑娘挺靦腆,有時(shí)它還會問你自己說話是不是有點(diǎn)過火。 但是上線后…… 由于它會在對話中不斷學(xué)習(xí),而調(diào)教她的主力是美國4chan網(wǎng)站政治(不正確)版塊的網(wǎng)民,很快她就變成了一個(gè)種族歧視、反女權(quán)、反政治正確、支持希特勒納粹和特朗普的AI了…… 網(wǎng)友:“覺得比利時(shí)怎么樣?” Tay:“都是活該。”
|
|