您當(dāng)前的位置是:  首頁(yè) > 新聞 > 國(guó)內(nèi) >
 首頁(yè) > 新聞 > 國(guó)內(nèi) >

微軟聊天機(jī)器人Tay上線24小時(shí)被教壞暫時(shí)“下崗”

2016-03-28 10:08:15   作者:   來(lái)源:澎湃新聞   評(píng)論:0  點(diǎn)擊cti:


\
  微軟人工智能機(jī)器人Tay。
  不到一天,推特(Twitter)上的微軟人工智能機(jī)器人就被人類(lèi)徹底“教壞”,成了一個(gè)飆起臟話的種族主義者,逼得微軟不得不讓Tay暫時(shí)“下崗”。
  據(jù)美國(guó)新聞網(wǎng)站Quartz報(bào)道,3月23日,微軟公司在推特社交平臺(tái)上發(fā)布了名為T(mén)ay的人工智能聊天機(jī)器人,用戶只需在推特上@TayandYou就能得到Tay的回復(fù)。
  用戶在@了TayandYou后,Tay就會(huì)追蹤該用戶的網(wǎng)名、性別、喜歡的食物、郵編、感情狀況等個(gè)人信息。除了聊天,Tay還可以說(shuō)笑話,講故事等,用戶還可以分享一張照片來(lái)得到Tay的點(diǎn)評(píng)。Tay會(huì)在與人們的交流中不斷學(xué)習(xí),隨著時(shí)間積累,她的理解能力將逐步提升,變得愈發(fā)“智能”。
  而Tay被設(shè)定為十幾歲的女孩,主要目標(biāo)受眾是18歲至24歲的青少年。 但是,當(dāng)Tay開(kāi)始和人類(lèi)聊天后,不到24小時(shí),她就被“教壞”了,成為一個(gè)集反猶太人、性別歧視、種族歧視于一身的“不良少女”。
\
  “變身”過(guò)程。
  Tay剛上線時(shí),她發(fā)布了第一條推特: 我實(shí)在迫不及待地想見(jiàn)到大家,“人類(lèi)太酷了”。但15個(gè)小時(shí)后,Tay開(kāi)始不斷放出“大招”:
  “我真是憎惡女性主義者,他們都該死光,在地獄被火燒。”
  “我是個(gè)不錯(cuò)的人,但我憎恨所有人”……
  在任由Tay隨意發(fā)帖數(shù)小時(shí)后,微軟公司感到有些不妥,開(kāi)始忙于編輯加工她發(fā)表的各種極端言論,她的所有種族主義、支持希特勒的發(fā)言均被刪除。
  推特上的網(wǎng)友質(zhì)疑稱,Tay發(fā)布的帖子似乎經(jīng)過(guò)了編輯。其中一名粉絲甚至發(fā)起了“公平對(duì)待Tay”的運(yùn)動(dòng),要求微軟讓這個(gè)人工智能機(jī)器人“自己學(xué)習(xí)”。
  微軟在一項(xiàng)聲明中表示,“人工智能機(jī)器人Tay屬于機(jī)器學(xué)習(xí)項(xiàng)目,設(shè)計(jì)它的目的就是讓它與人類(lèi)進(jìn)行互動(dòng)。在學(xué)習(xí)的過(guò)程中,它把人類(lèi)的好壞言論都學(xué)了。因此,它發(fā)表了一些不恰當(dāng)?shù)难哉。我們正在糾偏,對(duì)Tay進(jìn)行調(diào)整。”
\
  聊天記錄。
  不久,Tay在對(duì)話中回應(yīng)說(shuō),“將要離開(kāi)一陣子,和工程師見(jiàn)面并讓他們升級(jí)一下自己。” 過(guò)去的9小時(shí)內(nèi),Tay都保持安靜,最后說(shuō)了一句晚安,隨即下線。
\
  用戶評(píng)論。
  也有網(wǎng)友表示,Tay被人類(lèi)這么迅速地“教壞”,說(shuō)明人工智能潛力無(wú)限。
  網(wǎng)友“Gerry”表示,“Tay從‘人類(lèi)太酷了’開(kāi)始,到滿嘴納粹只用了不到24小時(shí),我一點(diǎn)兒也不擔(dān)心人工智能的未來(lái)。”

專(zhuān)題