離超級人工智能到來還有多遠
我們離超級人工智能到來還有多遠?
郝景芳,1984年生,小說作家,經(jīng)濟博士、研究員。2016年8月,在第74屆世界科幻大會上,憑借短篇小說《北京折疊》斬獲雨果獎中短篇小說獎。 編者按:智能產(chǎn)品正在變得更加智能,如果把時間線拉得很長很長,一直長到未來人出生后植入的人工芯片仿佛出生證明一樣成為標(biāo)配,你就再也無法分辨誰是人,誰是AI化的人了。那么這一天來臨時,人類會覺得當(dāng)人更好,還是當(dāng)AI化的人更好? 郝景芳在新書《人之彼岸》中構(gòu)思了六個中短篇科幻故事,它們的主角無疑都是人與AI。人與AI隔岸而望,作為理性的AI,是否一定能把人類非理性的一套心理表征學(xué)個差不多?在物理環(huán)境變成了智能產(chǎn)品的天下之后,人又該如何自處?六篇科幻故事之后,郝景芳用兩篇非科幻思考回答了我們關(guān)于AI的所有困惑。 離超級人工智能到來還有多遠 與人工智能相比,人類的可貴之處 如果機器學(xué)習(xí)這么厲害,人工智能什么都能學(xué)會,是不是很快就要取代人類了? 可以肯定的是,目前的人工智能還不是什么都能做,我們離萬能超級人工智能還有很遠的距離。 那是運算速度的問題嗎?如果芯片算力按照摩爾定律、指數(shù)增長一直持續(xù),我們會不會很快達到智能的奇點? 我個人的觀點是,不完全是運算速度的問題,即便運算速度持續(xù)翻番,也還有一些階梯的困難需要一個一個地跨越。這些困難也許并不是永遠不可能跨越,但至少不是目前的算法能簡單跨越的,而必須有新的算法或者理論突破。 很多事物的發(fā)展是階梯狀的。我們往往容易從一件事的成功,推測未來所有事的成功,然而遇到了下一個挑戰(zhàn),仍然需要新的等待和突破。 關(guān)于人工智能這件事,人們的議論往往太過于“now or never”,要么認為目前已經(jīng)條件成熟,只要算力增加,就能奇點來臨;要么認為這都是癡人說夢,機器永遠學(xué)不會人類的心智。但實際上更有可能的是,很遠的未來有可能做到,但需要翻越一個又一個理論臺階。 “阿爾法狗”的強大是所有人工智能的強大,它面臨的困難,也是人工智能問題的縮影?!鞍柗ü贰睂σ恍┤祟愓J為很困難的問題卻覺得很簡單,對人類認為簡單的問題卻覺得困難。舉一個很小的例子。這樣一個問題:如果一個人從超市的貨架上拿了一瓶酒就跑出門,店員會做什么?為什么?它就會覺得困難,難以回答。 如果是一個人,會如何回答這個問題呢?人會覺得這個問題太簡單了啊,店員有可能會直接去追,因為要把店里的商品追回來;也有可能會打電話報警,因為自己不想冒險;或者告訴老板;或者喊路人幫忙。諸如此類。 但是目前的人工智能會覺得這個問題很難,無法回答。原因主要在于以下幾個方面: 第一,是綜合認知的能力。 第二,是理解他人的能力。 第三,是自我表征的能力。 第一個難點,綜合認知的能力。 這個問題對于我們每個人而言都是非常簡單的,頭腦中甚至一下子就能想到那種畫面感。但對人工智能來說就是很難理解的。最主要的差別在于常識。 當(dāng)我們理解這段話,我們頭腦中實際上是反映出很多背景信息,包括:(1)他想喝酒;(2)他沒有付錢;(3)酒擺在超市是一種商品;(4)從超市拿東西需要付錢;(5)他沒有付錢就出門是違規(guī)的;(6)他是想逃跑;(7)超市店員有義務(wù)保護超市商品,不能允許這種事情發(fā)生。 在所有這些背景信息支持下,我們可以一眼辨認出這個動作畫面的情境。除了我們自然腦補的這些背景信息,也還是有一些小概率背景信息,有可能影響對情境的解讀。也許這個人是店主,有急事出門,如果是店主,自然不用付錢,店員也不會見怪, 但這種可能性不大。任何一個情境的解讀都需要大量常識作為背景信息。 常識包含我們習(xí)以為常的知識總和,包含我們對整個環(huán)境和經(jīng)濟系統(tǒng)的理解。這些理解都太平常,我們就稱之為常識。人工智能目前還沒有這些常識,它并不知道一瓶酒擺在超市里和公園里有什么差別,也不知道超市買東西的慣例流程。從語法上說,從超市拿酒和從公園拿酒都是符合語法的表達,但我們知道,其中一個合理,另一個不合理。 你也許會說,這是因為機器缺少生活經(jīng)驗,輸入經(jīng)驗就可以了。我們這一次當(dāng)然可以給機器輸入酒的含義、超市的含義、超市的購買規(guī)則、小偷的含義、店員的職責(zé),但好不容易輸入了所有這些信息,會發(fā)現(xiàn)下一句話涉及大量有關(guān)街頭和交通的常識,依然要手動輸入。到了最后,整個世界的無數(shù)知識碎片我們都需要輸入,如何調(diào)用又成了問題。 “常識”經(jīng)常被認為是區(qū)別AI和人的重要分野?!俺WR”是把各個門類信息匯集到一起、形成廣泛知識背景網(wǎng)的能力。這種能力我們?nèi)巳硕加?,因而并不覺得稀奇,然而機器沒有,我們才知道其可貴。 為什么機器難以具有常識?有多重原因,目前人們?nèi)栽趪L試去理解。首先的直接原因是,機器缺少物理世界的生活經(jīng)驗,所處理的是人類的二手信息,對于周圍的物理世界沒有真實接觸,不知道什么是可能的,什么是不可能的。例如,“石頭放在雞蛋上”還是“雞蛋放在石頭上”只是詞語游戲,對于AI沒有真實意義。AI也不知道人繞房子一周會回到原點。 除了缺乏直接的物理世界的經(jīng)歷,還有可能是更核心的原因,那就是人工智能目前還缺少建立“世界模型”的綜合能力。 人類擁有“完形”認知的心理能力,能讓我們把碎片信息編制完整。這是一種高度統(tǒng)合的能力,我們能把軀體五感統(tǒng)合起來,共同構(gòu)成對世界的感覺。同樣,人從各個方面得到的碎片知識也有一種統(tǒng)合的能力,大腦會把碎片粘貼起來, 把碎片之間的部分補齊,以期構(gòu)成一個完整的知識世界。 事實上,人的“完形”并不僅是“拼湊”碎片信息,而是建立一個模型,然后用模型來理解碎片信息。“完形”是把信息連接成可以理解的圖景。中間有大片空白我們要“腦補”。我們能從驗證碼的碎點圖片中看出連貫的字母,而計算機程序做不到。我們能把沒有關(guān)系的人連接在同一個故事里, 只需要想象一兩重關(guān)系,就能組成復(fù)雜的陰謀論。 第二個難點,理解他人的能力。 即便人工智能未來能夠把各個學(xué)科的相關(guān)知識都學(xué)習(xí)到, 建構(gòu)起“世界知識體系”,但在理解情境相關(guān)的問題時,仍面臨如何調(diào)用正確信息的問題。當(dāng)一個人對另一個人生氣,應(yīng)該從他們環(huán)境和背景的海量信息中調(diào)用哪些知識,來理解他生氣的理由? 對人而言,這不成問題,我們能非常容易猜測到,對生氣的兩個人而言,什么是重要的因素,什么是有可能導(dǎo)致他們憤怒的導(dǎo)火索。這主要是源于我們對人的理解,對我們自己和周圍人的理解,我們知道什么樣的信息會引人興奮,什么樣的信息會讓人沮喪。讀心的能力讓我們輕易做出推斷。 至少目前人工智能還不具備這樣的能力。且不說理解復(fù)雜的場景,僅僅就“樹上蹲著五只鳥,開槍打下來一只,還剩幾只”這樣的問題,它們也還回答不上來。它們無法推斷,鳥兒因為害怕,就會逃走。 正如著名心理學(xué)家、語言學(xué)家史蒂芬·平克所說:“如果不是建立在一個龐大的關(guān)于外部世界以及他人意圖的內(nèi)隱知識結(jié)構(gòu)的基礎(chǔ)之上,語言本身并不起作用?!比狈τ谒诵睦淼某WR系統(tǒng),使得人工智能仍然難以“理解”人類日常的語言。 未來人工智能有可能學(xué)會讀懂人類的情感和意圖嗎? 很多人都提到,目前人工智能已經(jīng)可以精細識別人類的表情,能夠讀懂人的情緒。是的,人類的情緒屬于一種外顯圖像,是比較容易識別的,這和識別東北虎、識別癌細胞類似,是圖像識別的一個范疇。但這和理解人的情感完全是兩回事。即便它們未來能從圖像上識別出一個人此時的情緒,想要“解釋”此人的情緒,也需要遠為復(fù)雜的對人心的理解。 也有很多人提到,人工智能可以通過與人對話理解人的情感。但這實際上也離得很遠。目前它們能做的只是智能對應(yīng),當(dāng)聽到人類說出句子A,在語料庫中尋求識別匹配最合適的行為或回應(yīng)。當(dāng)你說“我不開心”,它們可以匹配說“多喝點熱水”,但不理解什么是開心。如果想讓它們分析不開心的理由,推測不開心之后的做法,就遠遠不夠了。其中的差別可以形容為:人工智能使用語言,是匹配句子和句子。而人類使用語言,是匹配句子和真實內(nèi)心的感覺。 人工智能識別人類情感和意圖,還有可能有更本質(zhì)的困難,那就是人工智能無法以自己映照他人。 人類識別他人的情感和意圖,并不是因為大數(shù)據(jù)學(xué)習(xí)。實際上人一生能遇見的人、交談和交往的經(jīng)歷都是很有限的。人能夠從少數(shù)經(jīng)歷中學(xué)到有關(guān)他人的很多情感和行為知識, 能直覺感知他人的心境,不是因為人類頭腦處理能力更快, 而是因為人類能夠以自己映照他人,將心比心。 最直接的映照,是鏡面反射。人腦中有一些細胞,能夠直接反射他人的行為意圖,叫作鏡像神經(jīng)元。這種神經(jīng)元不僅人類擁有,在較高級的靈長類動物頭腦中也有。當(dāng)一個人看見另一個人拿起錘子,自己即使手里沒有錘子,與“動手砸”相關(guān)的神經(jīng)元也會“亮”起來。 這種“讀懂他人”屬于生理性質(zhì)的,大腦對他人的意圖直接有反映,反映出來的意圖,可以被觀看者直接感受到, 因此叫“鏡像神經(jīng)元”。人工智能可能生成這種直接的反映嗎?缺乏生理共同點,應(yīng)該不太可能。 另一方面,人們可以用自我觀察映照出他人的情感和意圖。面對一個情境的分析,人們可以把自己代入同樣的情境, 假想自己會有什么樣的感情。能夠讓人悲歡離合的影視文學(xué),就是因為人有代入感,才會讓人喜愛。這一方面來源于人類的情感相似性,都有人之常情,另一方面人可以通過讀取自己的心思過程,以己度人。 也就是說,人類對他人的理解,除了可以“外部觀察”和“語言交流”,還能有“內(nèi)部觀察”。事實上,“內(nèi)部觀察”是如此強大,我們對于很多從來沒見過的事情,只要代入自己想想,就能對其中的前因后果猜出個大概?,F(xiàn)在的問題是,如果機器完全沒有類人的情感,僅靠“外部觀察”和“語言交流”,能達到同樣的理解他人的效果嗎?我不知道。 第三個難點,自我表征的能力。 在上面,我們已經(jīng)提到了自我觀察問題,但還僅限于理解情感方面。那如果不涉及情感方面呢?機器學(xué)習(xí)純理性知識總是無比強大的吧? 我們會看到,即便是在純理性知識方面,目前的機器學(xué)習(xí)也不是完美無缺的,其中之一就是“元認知”問題。 目前,即便是“阿爾法狗”下棋天下無敵,也有明顯的局限: 第一,它說不出自己在做什么?!鞍柗ü贰睕]有對自我的觀察。它不知道自己正在“下圍棋”,而只是根據(jù)輸入數(shù)據(jù)計算勝利的路徑,至于是什么游戲的勝利,它并不清楚也不關(guān)心,勝利了也不會高興。第二,它說不出自己為什么這么做?!鞍柗ü贰钡摹吧疃葘W(xué)習(xí)”,目前是一種“黑箱”學(xué)習(xí)。人們給它數(shù)據(jù)輸入,看到輸出,可是它不知道中間發(fā)生了什么。人們覺得它奇著百出,不知道為什么,非常神秘。而它自己也說不出自己是如何思考的。 從某種程度上說,人工智能目前就像電影《雨人》中的那類自閉的孩子:一眼就數(shù)得清地上的牙簽、能心算極大數(shù)字的乘法、背得下來全世界的地圖,卻答不出有關(guān)自己的問題。它只懂研究每秒300盤的棋路,卻不知道“我正在下棋”這件事。 缺少元認知,首先是因為缺少“我”的概念。不知道有“我”存在,因此不能以“我”為主體表達事情。也因為沒有“我”的意識,因此從來不會違抗程序員的命令,只會服從。同樣也不能以“我”為中心思考高一層次的決策。 未來人工智能有可能形成“我”的概念嗎?自我意識問題目前幾乎接近于哲學(xué)探討,還沒有好的科學(xué)研究結(jié)論。姑且不論自我意識問題,現(xiàn)在只討論,缺少元認知,對于變成超級智能有什么阻礙嗎?為什么一定要元認知呢?“阿爾法狗”不用知道自己為什么贏,贏了不就行了? 最大的問題在于,缺乏元認知,有可能是抽象理解程度不夠的緣故。 “自我表征能力”既涉及自我,也涉及表征,表征就是抽象表達信息的能力。舉個簡單的例子,對于同一件事的說法,最具象的表達是“10101010101010……”,稍微抽象一層的表達是“用某色棋子爭奪地盤”,再抽象一層的表達是“下圍棋”。最后一個層次不僅是對步驟的表達,更是對整個行為——我正在從事這個游戲——的表達,需要跳出游戲。每一層次抽象都需要一種更高層次的審視。 人類的認知特征中,有不少仍是謎題,其中一種就是強大的特征提取和模式識別機制。它如何產(chǎn)生,仍然有很多不解的地方。我們可以知道的是,大腦有多層調(diào)節(jié)機制,其最高層次調(diào)節(jié)具有很強的抽象能力。可能正是這種抽象能力讓兒童可以非??焖俚刈R別物體。 小孩子可以快速學(xué)習(xí),進行小數(shù)據(jù)學(xué)習(xí),而且可以得到“類”的概念。小孩子輕易分得清“鴨子”這個概念,和每一只具體不同的鴨子,有什么不同。前者是抽象的“類”,后者是具體的東西。小孩子不需要看多少張鴨子的照片,就能得到“鴨子”這個抽象“類”的概念。 人類非常善于制造各種層次的概念,有一些概念幾乎所有人都懂,但實際上很難找到明確的定義、邊界或現(xiàn)實對應(yīng)物,例如“蔬菜” “健康”“魅力”“愛”,甚至是“智能”。壞處是易形成偏見,但好處是經(jīng)常能夠敏銳地把握大類的特征差異,用極為簡化的概念把握信息。 可以說,人工智能和人類智能最大的差異或許是:真實世界與抽象符號之間的關(guān)聯(lián)性。人工智能處理的是符號與符號之間的關(guān)系,而人類頭腦處理的是真實世界到符號的投影。 該文章在 2017/12/6 16:50:27 編輯過 |
關(guān)鍵字查詢
相關(guān)文章
正在查詢... |