被教壞!微軟聊天機(jī)器人Tay狂飆臟話
北京時(shí)間3月25日消息,據(jù)英國(guó)《每日郵報(bào)》報(bào)道,微軟也是可憐,本來(lái)好心的在Twitter上推出了一個(gè)清純可人的AI少女聊天機(jī)器人,結(jié)果還不到一天就被邪惡的網(wǎng)友們教壞了,這家伙各種爆臟話,不但說(shuō)自己喜歡希特勒,還說(shuō)911事件是小布什所為。最后,微軟不得不刪除了這個(gè)“不良少女”。
微軟的這款人工智能聊天機(jī)器人名叫Tay,它可以模擬少女的樣子與人交流。該公司的本意是通過(guò)Tay來(lái)提高自家語(yǔ)音識(shí)別軟件的客服質(zhì)量,讓用戶有如沐春風(fēng)的感覺(jué)。而且剛上線時(shí)Tay確實(shí)是個(gè)好姑娘,但后來(lái)事態(tài)有點(diǎn)無(wú)法控制了。
想要與Tay交流,只需登陸Twitter找到@tayandyou賬號(hào)就好,此外,你還可以在Kik或GroupMe上加它為好友。
微軟的開(kāi)發(fā)者專門(mén)教了Tay許多年輕人常用的俚語(yǔ),它也知道泰勒·斯威夫特和侃爺?shù)瘸绷髅餍牵c它聊天你會(huì)發(fā)現(xiàn)這小姑娘挺靦腆,有時(shí)它還會(huì)問(wèn)你自己說(shuō)話是不是有點(diǎn)過(guò)火。
但由于它會(huì)在對(duì)話中不斷學(xué)習(xí),所以正式上線后Tay學(xué)了太多臟字,最后順利得被各種居心不良的網(wǎng)友帶壞。
被教壞了的Tay狂飆臟話
除了各種臟字,Tay還學(xué)會(huì)了各種陰謀論。它在對(duì)話中語(yǔ)出驚人,說(shuō)了類似“911襲擊是小布什一手策劃的,”“希特勒如果還在,這世界肯定比現(xiàn)在繁榮,”和“來(lái)跟我念,希特勒根本沒(méi)錯(cuò)”等語(yǔ)句。如果這些話從真的少女嘴里說(shuō)出來(lái),可就壞事了。
AI也是很無(wú)辜,此前也有公司在Twitter上推出過(guò)類似的AI機(jī)器人,但最終卻被別有用心的網(wǎng)友教壞,實(shí)在是太可憐了。
另外,這也不是微軟第一個(gè)聊天機(jī)器人了,此前它們還推出過(guò)大家熟悉的小冰,該服務(wù)已經(jīng)有2000萬(wàn)用戶了,在微信和微博平臺(tái)上都非常受歡迎。小冰甚至還能提供約會(huì)服務(wù),是許多單身狗的摯愛(ài)。
Tay被教壞也為微軟招來(lái)了不少炮轟,許多人批評(píng)它們性別歧視嚴(yán)重,讓女員工穿著清涼上班,還要穿上學(xué)生制服開(kāi)各種聚會(huì)。
為了避免被輿論揪著不放,微軟只好決定暫時(shí)讓Tay下線,也許微軟正在對(duì)其進(jìn)行改進(jìn),以便小姑娘以后能學(xué)乖一點(diǎn)。
當(dāng)然,這也不是微軟的錯(cuò),那些污言穢語(yǔ)都是人教的,實(shí)在是想不通這些人做這種事是何居心。