首頁>科技>資訊
人工智能離理想還有多遠
本月初,世界人工智能大會在上海召開。大會期間,張文宏醫(yī)生一句“在人工智能如日中天的今天,此次抗疫靠的還是傳統(tǒng)智慧”引起很多人的共鳴。
人工智能曾經(jīng)是一個頗為科幻的話題。有人擔心人工智能會取代人類,甚至會反人類。然而幾年下來,我們發(fā)現(xiàn)人工智能并沒有我們想象的那樣智能。“問題”究竟出在哪兒?
從2004年開始,復旦大學哲學學院教授徐英瑾就開始將注意力投向人工智能。他不僅撰寫了大量相關論文專著,開設的人工智能哲學課程也受到學生好評。
日前,他講述了自己對上述議題的思考。他的剖析從“什么是人”“什么是智能”這兩個問題切入。
認識不到現(xiàn)實和理想的差距就會導致“泡沫”
嚴格來說,人工智能的主流技術并不新,它經(jīng)過對傳統(tǒng)技術的反復迭代而來。
關于人工智能的發(fā)展現(xiàn)狀,目前有“樂觀論”“悲觀論”“泡沫論”三種論調。
解放周一:世界人工智能大會的舉辦,激發(fā)起了很多非專業(yè)人士對人工智能的興趣。大家很希望了解,人工智能目前進展到底如何。您如何看待人工智能目前的發(fā)展?
徐英瑾:現(xiàn)在公眾對人工智能有很多期望,但根據(jù)我的觀察,這些期望相當大的程度上是建立在一些對學界實際發(fā)展狀況的誤解上。
我經(jīng)常會聽到各種各樣的誤解,第一個誤解就是認為人工智能是個新東西,是這幾年冒出來的。事實上,人工智能(artificial intelligence)這個詞正式變成公認的學科名詞是在1956年美國的達特茅斯會議上。顯然,這是距今已經(jīng)挺久遠的事情了。
至于現(xiàn)在被談論很多的深度學習技能,前身就是人工神經(jīng)網(wǎng)絡(artificial neural network)。這個概念在上世紀60年代就被學界注意到了。人工智能的奠基人之一阿蘭·圖靈生前也搞過一些粗淺的人工神經(jīng)網(wǎng)絡研究。這樣算的話,這個技術至少可以追溯到上世紀40年代。
所以,嚴格來說,人工智能的主流技術并不新,它經(jīng)過對傳統(tǒng)技術的反復迭代而來。
解放周一:那么,人工智能技術發(fā)展至今,現(xiàn)狀如何?
徐英瑾:關于人工智能的發(fā)展現(xiàn)狀,目前有“樂觀論”“悲觀論”“泡沫論”三種論調。
其中,“樂觀派”可能是主流。持樂觀論者認為,人工智能的發(fā)展一定能夠在短時間內解決我們面臨的各種問題。
這種論調描繪出了一個烏托邦般的場景:當你回到家中,所有的設備都能夠通過全新的網(wǎng)絡技術和物聯(lián)網(wǎng)與你心有靈犀;汽車是不用駕駛的,你上了車以后,什么事都不用干,就可以把你帶到目的地;沿途,你還可以和你的汽車交談,就好像它是你的人類司機那樣。
悲觀論者更多是站在那些可能會丟掉工作的人的立場上,認為人工智能實在太厲害,會取代很多人的工作。到時,如果社會暫時又無法提供更多的新崗位,這可怎么辦?
我的觀點是泡沫論。“泡沫”不是指人工智能的未來一片黯淡,而是說在短期內,這項技術的發(fā)展還無法支撐得起很多人的夢想。
理想很豐滿,技術目前還很“骨感”。如果你意識不到理想和現(xiàn)實之間的差距,就會導致泡沫。假如因為對人工智能持有樂觀態(tài)度而到市場上去融資,就更需審慎考慮。
歷史上確實有成功案例,比如IBM360計算機項目。
它的成功使計算機從過去那種非常笨重、只有高級科研單位才能買得起的狀態(tài),慢慢地變成辦公室可以用的計算機,為個人PC的出現(xiàn)打下了基礎。但失敗的案例也很多。如果關于人工智能的融資計劃都把未來描述得很美好,把餅畫得特別大,最后也很可能會有問題。
我個人對人工智能未來發(fā)展的基本判斷是——
人工智能對我們生活的改變不是全局性的、顛覆性的,而是局部的改進。比如,在在線教育、養(yǎng)老陪護等領域,人工智能能促進一些變化,帶來一些商機。但有些項目,比如自動駕駛,就很可能存在一些應予以審慎對待的泡沫。
當然,我主張的“泡沫論”是建立在一些基本概念的界定上,比如“專用人工智能”和“通用人工智能”。
使用傳統(tǒng)方法解決問題的能力下降是危險的
李世石應該會泡面、會開車,在和AlphaGo下完棋以后他還能夠接受媒體采訪、談談自己的感受。但是,AlphaGo肯定不會開車,更不能在和李世石下完棋以后和人類、和媒體交流自己的所思所想。
現(xiàn)在的人工智能都是基于大數(shù)據(jù)的,它對小概率和偶然性事件缺乏應對機制。當它面對這個充滿變動的世界時,就不知道該如何應對了。
解放周一:如何區(qū)別“專用人工智能”和“通用人工智能”?
徐英瑾:專用人工智能就是只能干一件事或兩件事的人工智能,通用人工智能是指什么事都能干一些的人工智能。
舉個例子來說,李世石是一位棋手,AlphaGo是一個圍棋程序。如果我們把李世石看成一個智能系統(tǒng)的話,他就是通用智能系統(tǒng)。因為他除了下棋,還能做許多其他事情,比如他應該會泡面、會開車,在和AlphaGo下完棋以后他還能夠接受媒體采訪、談談自己的感受。但是,AlphaGo肯定不會開車,更不能在和李世石下完棋以后和人類、和媒體交流自己的所思所想。經(jīng)過這樣的對比,我們能明顯看出專用人工智能的局限。
我們人類的特點是,在一件事上可能是專家,其他事也能干,只是干得沒那么好。但是,專用人工智能就只能干專門的事情,其他的事情基本無法兼顧。僅從這一點來講,專用人工智能和能力全面的通用人工智能之間的區(qū)別還是很大的。
我們現(xiàn)在看到的人工智能都是專用的,它們的制作思路都是按照專用人工智能的思路來做的,比如人臉識別和語音識別。當前,人工智能通過卷積神經(jīng)網(wǎng)絡技術的進步,已經(jīng)獲得了一項重要能力,即可以同時通過人臉和聲音來識別他人。但對于人工智能來說,基于神經(jīng)網(wǎng)絡的圖像識別系統(tǒng)和語音識別系統(tǒng)是兩回事。
解放周一:現(xiàn)在很多人對人工智能的想象,是建立在“通用人工智能”之上的。
徐英瑾:沒錯。這就成了一件比較麻煩的事。
很多人喜歡看美劇,發(fā)現(xiàn)里面出現(xiàn)的一些機器人已經(jīng)特別厲害。有的機器人不僅擁有人類的特征,還開始反抗人類。有人看了這樣的故事以后就會展開聯(lián)想:如果我們和這樣的機器人一起生活,會受到怎樣的威脅?
自然而然地,很多人對人工智能的思考就建立在了這類科幻影視作品的基礎上。而科幻影視作品受眾廣、不需要具備太多科學素養(yǎng)就能看明白,很有傳播力和影響力。
我有一個觀點:軟科幻看多了,要看一些硬科幻。硬科幻距離今天的科學比較近,對科學知識的運用更嚴謹。相比軟科幻,硬科幻更適合起科普的作用,能夠增強普通人對現(xiàn)實世界的思考能力和把握能力。
現(xiàn)在的人工智能都是基于大數(shù)據(jù)的,它對小概率和偶然性事件缺乏應對機制。當它面對這個充滿變動的世界(比如新型病毒、未知規(guī)模的洪水等)時,就不知道該如何應對了。
所以,我擔心的問題不是人工智能有了人的意識以后會與人對抗,而是人類過多依賴人工智能以后,頭腦反而會變簡單。
不要以為有了現(xiàn)代化的先進工具以后就可以放棄傳統(tǒng)。舉例來說。假設現(xiàn)在有兩支軍隊對峙,雙方都有能力使用最新的網(wǎng)絡信息技術,但只要有一方攻破了對方的網(wǎng)絡防線,另一方的信息基礎設施就淪陷了。到時,只能轉而采用最原始的辦法(比如信鴿、雞毛信等),來傳遞信息。
對人工智能充滿合理想象本身并沒有錯,但如果我們將人工智能的能力想象得過于強大,同時又疏于保持用傳統(tǒng)方法、傳統(tǒng)智慧解決問題的能力,這就可能會將人類置于某種尷尬的境地。
為什么現(xiàn)在還發(fā)展不出通用人工智能
通用人工智能系統(tǒng)的特點就是通用,既然是通用,就要處理全局性的問題。什么是全局性?就是擁有在不同的理論體系之間進行抉擇的能力。
深度學習基于的神經(jīng)網(wǎng)絡技術用強大的機器海量計算掩蓋了方法本身的“笨”。對于深度學習來說,如果有現(xiàn)成的數(shù)據(jù)會非常好辦,但如果沒有優(yōu)質數(shù)據(jù),靠它自己搜集數(shù)據(jù)就很成問題。
解放周一:現(xiàn)在的“深度學習”技術,有望在短期內,達到通用人工智能的程度嗎?
徐英瑾:人們曾經(jīng)想象能夠有一種機器,不需要任何外界輸入能量或者只需要一個初始能量,就可以不停地自動運動。在哲學家看來,這個設想經(jīng)不起嚴格推敲,無法從根本上立得住。在我看來,通用人工智能大概也只能停留在設想階段。
通用人工智能系統(tǒng)的特點就是通用,既然是通用,就要處理全局性的問題。什么是全局性?就是擁有在不同的理論體系之間進行抉擇的能力。不同的訴求之間往往存在沖突,而人類有能力在各種沖突之間想辦法,找到一個可以平衡各種矛盾的中庸點。
舉個大家比較好理解的例子。有一位家政員到雇主家里做事。如果雇主是一位知識分子,家里書特別多,他就可能會要求家政員盡量把書房打掃干凈,但不能干凈到書都找不到了。
家里書多的人都知道,書的易取性和整潔性往往是相互矛盾的。書收起來,家里固然更干凈整潔了,但如果幾本書同時在看,堆起來以后再找、再取就很耗費時間。這時,究竟是追求整潔還是易取?這里面就有個平衡點。這個平衡點的抵達需要家政員和雇主之間長時間的磨合,卻很難通過程序來設置。
任何一個綜合系統(tǒng)都要具備處理各種復雜甚至突發(fā)情況的能力。其中有些情況甚至是非常極端、偶發(fā)的。比如,一輛自動駕駛汽車在道路上行駛。道路的左側有一個路人在行走,道路的右側有五個路人在行走,萬一出現(xiàn)車速太快來不及剎車的情況,到時該往哪邊拐?假設這個程序突然得到消息,左邊的路人是我們國家一位非常重要的專家,它該如何選擇?
很多人第一直覺會覺得專家更重要,但轉念一想,每個人類個體的生命都是平等的。遇到這樣的問題,人類會痛苦抉擇、反復取舍。
換作是機器,問題就麻煩了。我們都知道,人工智能是基于一系列規(guī)則設置的,規(guī)則背后就是各種邏輯原則。一旦情況過于特殊或復雜,機器內部基于不同邏輯規(guī)則設置的程序之間就會打架。
我再舉個例子。假設現(xiàn)在有一位外國小伙子到少林寺學武術,語言不通,怎么辦?有個辦法,那就是師父做一個動作,小伙子跟著做;如果他做對了,師父就微笑,做錯了,師父就棒喝。通過這種方式,小伙子被棒喝以后,就知道自己做錯了。但具體到底哪一點做得不對,如果師父不明示、不詳解,他就需要猜、需要不斷試錯。這時語言的好處就很明顯。如果彼此能夠通曉對方的語言,師傅就能把包括武術規(guī)則在內的一整套內容都傳授給他,幫助他理解,然后再由學生自己轉化為行動。深度學習基于神經(jīng)元網(wǎng)絡的運作產(chǎn)生。神經(jīng)元網(wǎng)絡的運作,就類似于前面所說的那種比較笨的教學方法。
人類犯錯以后的反省是基于道理和規(guī)則的。但系統(tǒng)不是,它遇到障礙以后的應對辦法是調整各種參數(shù),試錯以后發(fā)現(xiàn)不對就再猜。它是通過大量的猜,慢慢地把事情往對的方向引。它的優(yōu)勢在于,可以在很短的時間里完成人類不可能完成的巨量猜測。深度學習基于的神經(jīng)網(wǎng)絡技術就是用強大的機器海量計算掩蓋了方法本身的“笨”。但問題是,對于深度學習來說,如果有現(xiàn)成的數(shù)據(jù)會非常好辦,如果沒有優(yōu)質數(shù)據(jù),靠它自己搜集數(shù)據(jù)就很成問題。
解放周一:通用人工智能如果要處理全局性問題,需要搜集的數(shù)據(jù)就更復雜了。
徐英瑾:是的。所以,目前的深度學習機制,其根本問題就是缺乏跨領域學習的能力。這正是人工智能無法通用化、全局化的根本所在。
在我們的日常生活中,不同的系統(tǒng)有不同的運作方式。國際象棋有國際象棋的下法,圍棋有圍棋的下法。人可以適應變化,要人工智能去適應這一點卻非常難。
解放周一:很多人會問,可不可以把各種專用的人工智能整合為一套通用的人工智能?
徐英瑾:其中又有一個問題——協(xié)同。這就和企業(yè)運籌帷幄一樣,需要各個團隊、板塊的協(xié)同合作,需要有一個能力全面的人來領導,而人工智能并不具備總體的調度、配置能力。
為了研究人工智能和人類智能還差在哪兒,一些專家提出了所謂的“卡特爾—霍恩—卡羅爾”三層智力模型。他們把通用智能分解成很多部分,比如流體智力、晶體智力、量化推理、讀寫能力、短期記憶、長期記憶、視覺處理和聽覺處理等。
量化推理無非就是算術,讀寫能力就是你能不能看懂文章、讀懂要點。晶體智力就好比老師現(xiàn)在給你一道題目,告訴你解法以后,看你能不能把做題的思路遷移到新的題目上。流體智力要求更高,相當大程度上,它強調的是一個靈活調用各種智識能力的狀態(tài)。
至少在目前,人工智能不是根據(jù)人類智識能力的發(fā)展方向來發(fā)展的。長此以往,它的“擬人性”就很成問題,它離真正意義上的通用人工智能就還很遠。
編輯:劉暢