您當前的位置是:  首頁 > 新聞 > 文章精選 >
 首頁 > 新聞 > 文章精選 >

聊天機器人不是用來聊天的 (上)

2018-05-18 10:11:16   作者:Grandsys 創(chuàng)新研發(fā)部 Pei   來源:CTI論壇   評論:0  點擊:


 聊天機器人不是用來聊天的 (上)
  是的,你沒看錯,聊天機器人(Chatbot)雖然名為聊天,但并不是用來聊天的。藉由這波聊天機器人的熱潮,讓我們來聊聊人工智能吧。
  去年四月,臉書公司執(zhí)行長祖克柏宣布了新版的Messenger平臺后,「聊天機器人」便成為軟件圈的一個新玩具。新創(chuàng)公司和軟件大廠紛紛推出自己的聊天機器人開發(fā)工具,讓傳統(tǒng)企業(yè)可以輕松擁有一個屬于自己的聊天機器人。無可避免地,這個趨勢也開始沖擊傳統(tǒng)客戶服務產(chǎn)業(yè),銀行與電信業(yè)也急于推出自己的聊天機器人。然而一聽到「機器人」,消費者腦中便會浮現(xiàn)長期以來對「人工智能」的想象。要接觸到機器人并不是什么新鮮事,已經(jīng)有各式各樣的聊天機器人出現(xiàn)在社群媒體等聊天平臺上。我們每天都離不開這些聊天軟件,但當你面對一個顯然是機器人的賬號,卻能夠做出類似真人的復雜響應時,好奇心便會被激起,會想要測試、揣摩「人工智能」到底有多厲害。我們對人工智能的概念毫不陌生,或許都要歸功于過去幾十年來看了無數(shù)的科幻電影。
  在科幻電影的世界,人工智能一直是非常熱門的題材。我們預測未來科技發(fā)展會打造出更聰明的機器。舉幾個經(jīng)典例子來說,像是威爾史密斯在《我,機器人》里所呈現(xiàn)的人機沖突,以及最近的電影《機械姬》中那逼真地足以玩弄人類情感的女性機器人。我們對這種人造的智慧感到害怕,怕機器人越來越像人類,甚至超越人類。有些電影中的機器人是沒有形體的。像是《魔果終結者》里的天網(wǎng),或是《鋼鐵人》史塔克的智慧助手賈維斯。不管有沒有形體,這些電影都在告訴觀眾:機器人有朝一日會在各方面都比人類優(yōu)秀。但我們真正恐懼的不是那些超凡的能力,而是電影中的機器人開始做一件事:獨立思考。如果機器人學會了獨立思考,有了自我意識,它就不再是為服務人類而生,也就意味著它能違反人類的意識來行動。我們希望機器擁有智慧,卻又對這種反撲的可能性感到害怕。
  然而,這真的是科幻電影才有的情節(jié)嗎?這幾年確實越來越常看到「人工智能」出現(xiàn)在報章媒體上,談論人工智能如何有了突破性的發(fā)展;機器人在各種競賽中不斷擊敗人類;以及越來越多知識工作,甚至傳統(tǒng)認為極其復雜的決策工作都可以由人工智能執(zhí)行。我們也看到科技大廠頻頻推出各種標榜「智能」、「智慧」、「機器人」的產(chǎn)品。按照這樣發(fā)展下去,彷佛我們內心的擔憂正在一點一點成真。科幻電影中高度智慧的機器人將會誕生。有一天,我們必須面對足以和人類媲美的個體。甚至,會不會有一天脫離人類的掌控?就像科幻電影那樣。
  然而,這種擔憂是出自對人工智能發(fā)展的不理解。
  在學術上,人工智能可以粗略地分成兩種。第一種,是過去我們定義一個「聰明的人」所擁有的技能:博學、強記、分辨事物等能力,F(xiàn)在的機器要做到博學強記已經(jīng)非常容易,我們有成熟的搜尋與儲存技術,像是人們已經(jīng)很習慣使用搜尋引擎查詢信息,或用行事歷和記事軟件來處理待辦事項。事實上,在手機計算機問世前,博學強記也曾被視為是「智慧」的表現(xiàn)。但到了現(xiàn)在,已經(jīng)沒有人認為這些可以稱為智慧,這只是每個機器都擁有的基本能力。我們期待機器應該變得更智慧,也就是能像人一樣分辨各種事物。在過去,認知能力一直是人類能做到但計算機很難做到的事。常見的認知能力有影像辨識、語音識別、理解語言等等。如果計算機得到與人類相仿的認知能力,就幾乎可完成所有以往只有人能勝任的工作,也就變得像人類一樣「智慧」。但在計算機科學的領域里,博學、強記、分辨,并不是人工智能發(fā)展的最終目標,只能稱為「弱人工智能」。另一種人工智能等級是「強人工智能」,其野心,是要讓機器得到自主思考的能力,甚至能夠理解感情,擁有自我意識等人類的核心價值。簡單來說:弱人工智能是認知能力,強人工智能是思考能力。
  很多人混淆了認知和思考,認為只要機器能夠認知,就終究能夠思考,事實上不是這樣,F(xiàn)在的人工智能能夠讓機器人取得認知能力,卻不會讓機器人變成科幻電影中的高度智慧,F(xiàn)在的機器人能聽懂你的話,是因為它的語言認知能力可以把句子拆解分析,找出語意類別,分析情緒,并作出設計好的響應。但這不代表它有產(chǎn)生任何想法,或是自我意識。
  每個人對科技發(fā)展都有不同的想象與期待。然而過度樂觀或悲觀,都會讓我們錯失重要的事物,F(xiàn)在人們對人工智能的態(tài)度也是如此,有些人過度吹捧(或過度恐懼)其力量;有些人過度輕忽其影響:而大多數(shù)的人也未曾真正認識人工智能應有的角色。現(xiàn)在,讓我們來談談這些謬誤。
  過度吹捧人工智能
  第一個謬誤就是過度神話人工智能,如前面所說,科幻電影中那能夠自主思考的強人工智能,從學術的角度看只是一個理想。
  許多科技樂觀主義者相信,科技發(fā)展有加速成長的效應。因為我們可以用今天計算機打造明天的計算機,再用明天的計算機打造未來的計算機。就像金錢有復利成長一樣,計算機運算能力并不是以線性成長的(1,2,3,4,......),而是以指數(shù)成長(1,2,4,8,......)。過去有個非常有名的摩爾定律,就是說明計算機硬件運算能力會呈指數(shù)成長,在過去的50年來,這個定律一直沒有被打破。指數(shù)成長的力量非?膳拢瑪(shù)十年前的人們完全無法想象現(xiàn)在的計算機科技。可以想象,人工智能的未來也會呈指數(shù)成長,所以強人工智能的出現(xiàn)也是有可能的。支持這類論點最有名的是未來學家?guī)炱澩枺≧aymond Kurzweil)教授。他把強人工智能的出現(xiàn)稱為「奇點」,認為在未來人類的大腦將可以上傳到云端,甚至創(chuàng)造能夠理解愛的機器人。根據(jù)他的預測,這個轉折點可能在未來二三十年內就會發(fā)生。
  但如果你仔細審視當今的人工智能技術,這類預言并沒有太多根據(jù),只是一種推測。計算機科學家并不知道怎么創(chuàng)造出心靈、意識。事實上,整個科學界根本還沒弄清楚人類的意識是怎么運作的,更不要說如何打造一個。當然,你可以說任何事都有其可能?苹眯≌f家與未來學家的共通點就是他們都在尋找可能性。但我們也要知道,越是對未來有高度期待或恐懼的言論,越能吸引讀者注意,報章媒體也偏好這類言論,使得社會大眾對人工智能有著完全錯誤的期待。許多專家也試著從實務的角度提出建言。李開復在今年的《人工智能來了》趨勢論壇中提道:「其實強人工智能根本不存在,未來十年內發(fā)生機率是零!箵Q言之,以現(xiàn)行的技術,強人工智能是不可能的。
  我們需要強人工智能嗎?新銳歷史學者哈拉瑞(Yuval Noah Harari)在他的新書《人類大命運》中提到,雖然我們不知道要怎么創(chuàng)造出意識,但目前的人工智能不需要意識也可以運作得很好。機器人不需要像人類一樣,有想法,有欲望、有感受,就可以完美執(zhí)行復雜的任務,F(xiàn)行的人工智能已經(jīng)可以做出非常復雜的任務,從機智問答比賽中獲勝,到能夠開車上路。但從軟件的角度來說,這些行為都只是追求優(yōu)化的算法,其中不需要任何自主意識的參與。
  另一方面,我們也未必希望人工智能擁有自我意識和心靈。就像我們害怕科幻電影中的機器人反撲,你會希望你的手機擁有自我意識嗎?你能想象你的手機有一天可能會對你有意見、討厭你、甚至背叛你嗎?我們總還是希望機器是為了服務人而生,賦予其意識并沒有必要,我們也還沒做好心理準備該如何與之共處。
  所以,強人工智能只是一個理想概念,但事實上做不到、不需要做到、也沒有心理準備做到。社會大眾必須舍棄對強人工智能的預期,才能正確理解現(xiàn)今人工智能的角色。
  低估了認知革命的可怕
  另一個對人工智能的謬誤則是忽視。顯然,如果對新的科技浪潮太過無知,必然會沖擊到你的職業(yè)生涯。但如果你已經(jīng)認識人工智能的分野。知道目前人工智能的發(fā)展聚焦于讓機器擁有博學、強記、認知能力的「弱人工智能」。你或許會感覺,弱人工智能是不是真的很弱呢?那么,你顯然不知道認知能力是多么強大的一種能力。
  有賴于這幾年大數(shù)據(jù)的快速發(fā)展,讓過去沒有機會發(fā)展的深度學習算法得到了重要的燃料,而那是近年機器學習領域中最重要的方法之一。機器學習,顧名思義就是強調讓人工智能能夠像人類一樣學習的關鍵。有了深度學習算法,機器就開始可以識別影像(例:我看到圖片里面有三個人。)、聽得懂語言(例:我聽到他剛剛說‘你好’。)、還有各種以往要靠人類的感官才能分辨的任務,這些都是屬于不同的認知能力。事實上,人類也不是一出生就能分辨所有事物,而是根據(jù)經(jīng)驗慢慢學習而來。算法賦予了機器學習的能力,也就讓機器可以認知各種事物。
  認知能力不只是分辨五官接收到的訊號。事實上,所有復雜的決策工作都是由不同層次的認知階段組成。視覺辨認物體,辨認語言文字,辨認情緒等基本認知能力,這些主要是提供我們信息。根據(jù)這些信息,人可以結合過去經(jīng)驗,做出較高層次的決策。像是醫(yī)生能夠辨認出病患是得到什么疾病,警察能夠辨認出誰嫌疑重大等等。如此復雜的分辨工作,機器有可能學會嗎?答案是可能的,不管是什么領域,人類之所以能做出專業(yè)判斷,靠的是經(jīng)驗累積而成的模式辨認能力。專業(yè)人士或許很難用語言描述這些模式,但他們的大腦已經(jīng)形塑成能快速辨認這些模式。深度學習算法運用非常類似的方法做模式辨認。人類是用經(jīng)驗形塑大腦,算法靠大量數(shù)據(jù)調整參數(shù)。除了知識工作會倚賴模式辨認,很多應屬于創(chuàng)造性的工作,也都是只是把我們腦中既有的模式表現(xiàn)出來。像是作家、音樂家、藝術家在創(chuàng)作時,都必定有可以重復運用的模式和技巧。當機器人擁有模式辨認的能力,就可以「創(chuàng)作」出相仿風格的作品。除了少數(shù)一些全然開創(chuàng)性的工作,絕大部分的工作都有模式,也都可以被機器學習。
  仔細想想,幾乎所有人類賴以為生的工作都是屬于認知能力的范疇,機器人都可以透過巨量數(shù)據(jù)學習,得到與人相仿的認知能力。換句話說,只要你的工作是有重復性質,即使是傳統(tǒng)認為難以取代的白領工作,擁有高超認知能力的機器人都可以取而代之。
  李開復和雷軍都曾說過類似的話:「人工智能將導致50%的人失業(yè)。」科技的加速成長效應,雖難以帶來強人工智能的自主意識,但卻足以把弱人工智能的認知能力推升到人類望塵莫及的境界。機器的認知能力會不斷進步,直到比地球上任何一個人類都好。像是,社群網(wǎng)站臉書的人臉識別能力已經(jīng)可以認出數(shù)十億張臉孔,這顯然不是任何人能夠做到的事。在未來,我們會看到人類在其他面向的認知能力都漸漸輸給機器。許多我們以為適合人來做的工作,由機器來做都更好。
  弱人工智能一點也不弱,我們「只」是賦予機器人認知能力,卻有可能帶來人類史上最大的科技性失業(yè)。
【免責聲明】本文僅代表作者本人觀點,與CTI論壇無關。CTI論壇對文中陳述、觀點判斷保持中立,不對所包含內容的準確性、可靠性或完整性提供任何明示或暗示的保證。請讀者僅作參考,并請自行承擔全部責任。

專題