【摘要】人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議?;?ldquo;神經(jīng)網(wǎng)絡(luò)”構(gòu)架的軟件在機器學(xué)習(xí)能力方面的進(jìn)展,讓人耳目一新的同時,也讓不少人焦慮乃至恐懼。這是因為,“學(xué)習(xí)”能力原被認(rèn)為是人類特有的能力,機器難以勝任。如今突破了這條界線,機器與人之間的界限似乎就被抹掉了。關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價值植入的技術(shù)限度。實際上,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會挑戰(zhàn)我們過往的既有經(jīng)驗,卻不是顛覆性的“消滅”。無論人工智能如何模仿人腦的“神經(jīng)網(wǎng)絡(luò)”,表現(xiàn)如何像人,只要人類心智現(xiàn)象的最終解釋沒有取得突破性進(jìn)展,關(guān)于人工智能是否逼近人類智能的設(shè)問就缺少必要的前提。
【關(guān)鍵詞】弱人工智能 強人工智能 量子力學(xué) 物理主義 倫理困境 價值理性
【中圖分類號】 B82-057 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2016.07.003
AlphaGo的“勝利”與人工智能的演進(jìn)
2016年,是人工智能(Artificial Intelligence,英文縮寫為AI)議題高度亢奮的一年。谷歌DeepMind團隊開發(fā)的AlphaGo程序以4比1的成績“戰(zhàn)勝”韓國棋手、世界冠軍李世石,使這種亢奮達(dá)到了頂點。
AlphaGo程序利用“神經(jīng)網(wǎng)絡(luò)”來模仿專業(yè)棋手,并通過與其他同類程序比賽、加上程序自身的“對壘”進(jìn)行“自我學(xué)習(xí)”,從而進(jìn)一步提高其性能。AlphaGo對陣其他圍棋程序的勝率達(dá)到了99%,并在過去的一場巡回賽中以5比0戰(zhàn)勝了衛(wèi)冕歐洲冠軍樊麾。此番AlphaGo與李世石的對壘,五連勝還是負(fù)一贏四,并不妨礙我們對人工智能的發(fā)展作出進(jìn)一步的評估。恰如本次賽前發(fā)布會上谷歌董事長施密特所表示的,輸贏都是人類的勝利。因為正是人類的努力才讓人工智能有了今天的突破,人工智能在圍棋上“戰(zhàn)勝”人類智能只是時間問題。
AlphaGo贏得圍棋比賽,使得知識界科技界對待人工智能的兩種典型態(tài)度再度引起關(guān)注:一種是霍金、比爾·蓋茨式的“警惕人工智能”,一種是雷·庫茲韋爾式的樂觀興奮與期待憧憬。2014年12月,英國理論物理學(xué)家史蒂芬·霍金警告說,人工智能的發(fā)展可能意味著人類的滅亡。2015年1月,比爾·蓋茨在Reddit的“AskMe Anything”論壇上表示,人類應(yīng)該敬畏人工智能的崛起。蓋茨認(rèn)為,人工智能將最終構(gòu)成一個現(xiàn)實性的威脅,雖然在此之前,它會使我們的生活更輕松。庫茲韋爾是“奇點論”和“加速回報定律”主張的代表人物,他曾經(jīng)表示:“要成為一位發(fā)明家或企業(yè)家,你必須得是個樂觀派。對未來所存在的風(fēng)險,我并非是渾然不覺,我只是對人類安然渡過奇點而無需以摧毀文明為代價持樂觀態(tài)度而已。”①
自被1956年的達(dá)特茅斯學(xué)院會議正式確立為一個學(xué)科以來,“人工智能”的發(fā)展經(jīng)歷了多次起伏。到了1970年代,人工智能的發(fā)展開始遭遇更多的批評,隨之而來的還有資金支持的銳減。研究者的過于樂觀使得一些項目的承諾無法兌現(xiàn),比較知名的諸如閔斯基(Marvin Minsky)對傳感器技術(shù)的激烈批評,使得聯(lián)結(jié)主義(即神經(jīng)網(wǎng)絡(luò))近乎銷聲匿跡了10年。1973年,美國和英國政府更是嚴(yán)格控制對人工智能的投入,那些“沒有明確目標(biāo)的人工智能研究項目”被停止了撥款。
1980~1987年,人工智能重新迎來一個發(fā)展高潮,首先是日本投入了8.5億美金研發(fā)機器人。受日本政府投資野心的刺激,發(fā)達(dá)國家進(jìn)入了“人工智能”研究的競賽狀態(tài),美國政府和企業(yè)再次在AI領(lǐng)域投入數(shù)十億研究經(jīng)費,但由于研究人員低估了人工智能研發(fā)的難度,進(jìn)展有限,這些投資在80年代末再次受到質(zhì)疑。1987~1993年,人工智能的發(fā)展又一次陷入低谷,美國研究機構(gòu)DARPA(國防高等研究計劃署)的主任甚至認(rèn)為人工智能不再是研究的重要方向??▋?nèi)基梅隆大學(xué)移動機器人實驗室主任莫拉維克(Hans Moravec)將這種挫敗歸咎于他的同行們不切實際的預(yù)言和承諾。②
從1993年到今天,人工智能進(jìn)入了加速發(fā)展軌道。2012年6月23日,在位于米爾頓凱恩斯的布萊切利公園舉行了紀(jì)念圖靈百年誕辰的圖靈測試。一個被設(shè)計為擁有“高度可信度”的個性化機器人“古斯特曼”在競賽中獲勝。這次競賽主要有5臺機器人、25名人類成員和30名評委參與,是有史以來規(guī)模最大的一次競賽。經(jīng)過一系列的5分鐘對話后,29%的評委相信古斯特曼擁有類人的人工智能。③這次測試,使得人工智能樂觀派相信,人工智能的飛躍式發(fā)展即將來臨。早在2005年,雷·庫茲韋爾在他的《奇點臨近》一書中,預(yù)言機器的智能將在2045年超過人類的智能。④
在學(xué)術(shù)界,“奇點理論”遭到了強烈而持久的質(zhì)疑。牛津大學(xué)哲學(xué)教授、人類未來研究院創(chuàng)始人和主任(人類未來研究院是一個多學(xué)科研究院,旨在幫助一些非常優(yōu)秀的數(shù)學(xué)家、哲學(xué)家和科學(xué)家對人類大問題和全球大事務(wù)進(jìn)行仔細(xì)的思考)波斯特姆(Nick Bostrom)在其出版于2014年的《超級智能:途徑、危險與戰(zhàn)略》一書中認(rèn)為:“‘奇點’這一術(shù)語在很多不同領(lǐng)域被混亂地使用,并催生出一種不合理的技術(shù)烏托邦氛圍,就好像我們會就此迎來太平盛世了??紤]到‘奇點’這個詞所指的大部分涵義與本文的論述不甚相關(guān),我們可以去掉這個詞并代替以更精確的術(shù)語。”⑤波斯特姆使用“超級智能”(superintelligence)一詞來描述機器“智能爆發(fā)”之后的智能狀態(tài)。但是,波斯特姆的這個概念沒有把工具性智能與人類的意識和自我意識等第一人稱世界的內(nèi)容區(qū)分開來,根據(jù)我們下面的討論可以看出,這種混淆是誤入歧途的,但這并不妨礙他的警示的有效性。
弱人工智能復(fù)雜化:人類的“超級秘書”
AlphaGo贏得圍棋比賽,是不是像有些人驚呼的那樣,人類智慧最后的壁壘即將坍塌,“人類應(yīng)放下自己的驕傲”?⑥其實,人類以這種工具性智能為傲,本來就是概念錯置。況且,以下圍棋的能力來代表人類智能,也站不住腳。說到底,這是在單一的抽象博弈智能方面,體制化的學(xué)術(shù)集體戰(zhàn)勝了天賦極高的自然個體。這種博弈,無論哪一方贏,都是人類在贏。
圍棋作為一種古老的棋術(shù),其規(guī)則簡單明晰,卻因組合可能性的數(shù)據(jù)龐大而令一些人感到癡迷。圍棋棋盤上每一點,都有黑、白、空三種情況,棋盤上共有19*19=361個點,所以可能產(chǎn)生的合法棋局?jǐn)?shù)為3的361次方種??赡苄缘碾y以窮盡,催生了圍棋朗朗上口的口訣式經(jīng)驗總結(jié),其實就是快速對應(yīng)勝負(fù)的概率計算,這與AlphaGo通過“深度學(xué)習(xí)”而減少計算量的邏輯是一致的。不同的是,計算機可以記住趨于無窮多的作為程序的口訣和案例,而人窮其一生,也只能記住有限的經(jīng)驗,很多時候就只能靠現(xiàn)場推算,甚至靠直覺領(lǐng)悟了。一些對圍棋技藝癡迷且不愿意相信電腦能贏的人,陷入的恰恰是將圍棋神秘化的有限經(jīng)驗當(dāng)中。更有意思的是,有些棋手按照平時訓(xùn)練的圍棋技藝來評價人機大戰(zhàn)時,會認(rèn)為AlphaGo哪招哪式在下“臭棋”,哪招是“失誤”,其實,在以最終取勝為目的的電腦程序里,只要達(dá)成程序設(shè)定目標(biāo),就不能有所謂“臭棋”或“失誤”之說。
那么,會“深度學(xué)習(xí)”、用“神經(jīng)網(wǎng)絡(luò)”打造的AlphaGo究竟算不算“強人工智能”或波斯特姆所言的“超級智能”呢?
波斯特姆在美國《連線》雜志2016年1月刊發(fā)表了看法。在他看來,這(指此前AlphaGo的發(fā)展)并不一定是一次巨大飛躍。波斯特姆指出,多年來,系統(tǒng)背后的技術(shù)一直處于穩(wěn)定提升中,其中包括有過諸多討論的人工智能技術(shù),比如深度學(xué)習(xí)和強化學(xué)習(xí)。谷歌擊敗圍棋大師不過是一項重大進(jìn)程中的一部分。這一進(jìn)程始于很久以前,也將延續(xù)至未來幾年。波斯特姆說,“過去和現(xiàn)在,最先進(jìn)的人工智能都取得了很多進(jìn)展”,“(谷歌)的基礎(chǔ)技術(shù)只是過去幾年中的技術(shù)研發(fā)的技術(shù)正常延續(xù)”。⑦
看起來,雖然波斯特姆在總體上有關(guān)智能本質(zhì)的理解是不成立的,AlphaGo的表現(xiàn)也沒有出乎他的意料。在《超級智能:路線圖、危險性與應(yīng)對策略》一書中,他曾經(jīng)這樣表述:“專業(yè)國際象棋比賽曾被認(rèn)為是人類智能活動的集中體現(xiàn)。20世紀(jì)50年代后期的一些專家認(rèn)為:‘如果能造出成功的下棋機器,那么就一定能夠找到人類智能的本質(zhì)所在。’但現(xiàn)在,我們卻不這么認(rèn)為了。約翰·麥肯錫曾不無惋惜地悲嘆:‘這種機器被造出來之后,人們就不稱其為人工智能了。’”⑧也就是說,能下棋能贏人類的機器,終究還是機器,與人類的心智本質(zhì)無甚關(guān)聯(lián)。感到不可思議或驚呼“聰明的人類輸給了機器”的人,不是神化了下棋技藝的智力本質(zhì),就是給下棋程序橫加賦予了“人性”特質(zhì)。
初看起來,波斯特姆所謂的“超級智能”,應(yīng)該是能夠全面取代人類智能的一種“強人工智能”,區(qū)別于當(dāng)前已經(jīng)廣泛應(yīng)用中的“弱人工智能”(包括自動駕駛、下棋技能、機器視覺、指紋識別、人臉識別、視網(wǎng)膜識別、虹膜識別、掌紋識別、專家系統(tǒng)、自動規(guī)劃,等等)。但他并沒有深入探討人類的智能現(xiàn)象的本質(zhì)究竟是什么,對經(jīng)典的“他心問題”也無涉及,這又讓人覺得他說的“超級智能”還是屬于工具性智能的“弱人工智能”的范疇。
就這一點,他本人也有所認(rèn)識,他說:“用超級智能來指代在許多普遍的認(rèn)知領(lǐng)域中,表現(xiàn)遠(yuǎn)遠(yuǎn)超越目前最聰明的人類頭腦的智能。這個定義仍然十分模糊。按照這個定義,很多系統(tǒng)具有迥然不同的性能特質(zhì),都可以被視為超級智能。”⑨為了進(jìn)一步解釋他的構(gòu)思,他試圖通過區(qū)分智能層面的超級能力,將超級智能的這種簡單定義分解。于是,他將超級智能分為三種形式:高速超級智能、集體超級智能和素質(zhì)超級智能。由于未能把握人類意識現(xiàn)象的本質(zhì)以及指出解釋意識現(xiàn)象的方向,不管波斯特姆在展望“超級智能”時如何分類,都無法提供接近“機器人是人嗎?人是機器人嗎?”這個根本命題的方向乃至答案。
無論是谷歌的無人駕駛技術(shù),還是如今的AlphaGo下棋程序,或者更早前的“微軟小冰”,這些智能機器的發(fā)明,與人類從科技進(jìn)步中期待得到的工具理性之間,并無根本的內(nèi)在沖突,復(fù)雜程度日益提升、智能的日趨強大,與人們驚呼的“人類將要被機器消滅”的后果之間,并沒有什么必然的關(guān)聯(lián)。
可以說,迄今為止機器下棋技術(shù)的每一次重要進(jìn)展,都可能是“弱人工智能”領(lǐng)域的路標(biāo),但其中涉及的主要并不是人工智能技術(shù)內(nèi)部邏輯的斷裂性突破,而這次AlphaGo贏了人類冠軍所謂的重要意涵,是一些圍棋愛好者把圍棋和李世石預(yù)先設(shè)想為當(dāng)然標(biāo)桿后,標(biāo)桿在某種光照中投下的張揚扭曲的影子。要超出這個,我們必須對人類意識的“整一性”難題和“他心問題”有了可操作的解釋以后才有可能,就目前情況來看,玄機在哪里呢?不在棋局中,不在DeepMind的工坊里,也不在“阿法狗”的“神經(jīng)網(wǎng)絡(luò)”里,而在我們自己心智的幻影中。就“弱人工智能”范疇而言,智能再強大的機器,再像人的機器,也就是人類的一個不鬧情緒的“超級秘書”而已。
價值失落:人類的身份認(rèn)同危機與技術(shù)焦慮癥
2014年,史蒂芬·霍金與麻省理工學(xué)院物理學(xué)家馬克思·泰格馬克(Max Tegmark)、諾貝爾獎得主弗朗克·韋爾切克(Frank Wilczek)、計算機科學(xué)家斯圖亞特·羅素(Stuart Ressell)合寫了一篇署名評論文章《在超級智能機器上超越自滿》,該文引起了廣泛關(guān)注?;艚鹪谖恼轮斜磉_(dá)了對人工智能的憂慮:“可以想象,人工智能會以其‘聰明’在金融市場勝出,在發(fā)明方面勝過人類研究者,在操縱民意方面將勝過人類領(lǐng)導(dǎo)人,研發(fā)出人類甚至理解不了的武器。盡管人工智能的短期影響取決于誰在控制人工智能,而它的長期影響則取決于人工智能到底能否受到任何控制。”⑩
關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價值植入的技術(shù)限度。
人類的價值系統(tǒng),粗泛地區(qū)分,可以分為外在價值和內(nèi)在價值,即所謂“有用”與“無用”之辨。當(dāng)我們說什么東西有用時,是就這東西對于它之外的某個目標(biāo)、目的或者是功能而言的,比如錢可以拿來購買面包充饑,這叫工具價值。由于它把其他東西當(dāng)作自己服務(wù)的對象,所以它沒有內(nèi)在價值,只有外在價值。外在價值即是那些工具性的價值,最終服務(wù)于人類的內(nèi)在價值訴求。
那么,什么是內(nèi)在價值呢?哲學(xué)家們或許會就某些含混地帶進(jìn)行爭論,但無論如何,很少有人會把一些基本的要素排除出去,比如自由、快樂、尊嚴(yán)、情愛、創(chuàng)造、自我超越,等等。這些東西不是為了其它東西而存在,相反,生活中沒有了這些東西,就等于失去了值得欲求的內(nèi)容。當(dāng)然,要有自由、尊嚴(yán),需要一個最低版本的生存條件。這個條件,人和任何其他動物沒有什么不同,不是人之為人的本質(zhì)所在。如果我們談?wù)撊祟惿畹膬?nèi)在價值及其意義系統(tǒng),則必然集中在人所特有的東西上??档碌牡赖抡軐W(xué)已向我們表明,追求自由、尊嚴(yán)是所有理性存在主體的內(nèi)在規(guī)定,鮮有其他哲學(xué)家會否認(rèn)這一點。
在談?wù)撊斯ぶ悄軐θ说那治g和威脅時,有一部分研究人員會使用喪失“人類關(guān)切”(human-centric)一詞來描述這種內(nèi)在價值的虧損。比如法格拉(Daniel Faggella)采訪了12位活躍在AI領(lǐng)域的權(quán)威專家和研究人員。其中,科爾奈(Kornai)博士和阿肯色大學(xué)的博爾林特(Daniel Berleant)博士都預(yù)見到了自動化金融算法被它們的所有者們用來作為賺錢工具所帶來的潛在災(zāi)難性問題,他們說,這其中沒有任何“人類關(guān)切”的目標(biāo)。認(rèn)知科學(xué)家巴赫(Joscha Bach)則說:“近期的人工智能引起的危機最終可能成為現(xiàn)在社會中已經(jīng)存在的一樣的危機。如果我們不能走出基于工薪的經(jīng)濟模式的話,人工智能的自動化會提高生產(chǎn)力,卻不會改善我們的生存條件。”?這種憂慮不無道理,不過主要是基于財富分配的急遽變化而引起的社會階層流動而言的,實際上,并不是技術(shù)進(jìn)步和人工智能自身的問題。
如前所述,人類的內(nèi)在價值并不在于謀生存的基本勞作,無論是體力勞動還是腦力勞動,都是為了解決問題來完成給自己設(shè)定的任務(wù),這種設(shè)定源于我們的自我意識和意義系統(tǒng)。有了這種設(shè)定,才能知道什么是該干的“活”,什么是服務(wù)于我們的訴求的有效勞動。像下棋一類的智力活動,在人類這里剛好不是用來“干活”完成功利目標(biāo)的技能,而是生活內(nèi)容中的一部分高級游戲,這很有工具價值之外的意義。但是,這場人機大賽,引起嘩然的并不是這個,而是人們感覺到的一種基于工具效能理解的自我認(rèn)同危機。這種自我認(rèn)同,其實是傭工思維,是一種價值上的自我貶損。
在單一的抽象博弈智能方面,體制化、學(xué)術(shù)化的集體戰(zhàn)勝了天賦極高的自然個體。這令依賴這種稟賦的自然個體感到焦慮,正如有人馬上反應(yīng)過來:“以后還帶不帶孩子學(xué)圍棋了?大街小巷的圍棋興趣班還有生意么?”圍棋冠軍們更是感受到一種職業(yè)性的惶恐:究竟我們此前對圍棋的認(rèn)知還有多少盲區(qū)?
其實,機器沒有獨立的意志,所謂“輸”與“贏”的說法,都是我們?nèi)祟悊畏矫娴耐渡洌cAI“自己”無關(guān),因為AlphaGo根本就沒有所謂的“自己”。沒有獨立的意志,怎么和人發(fā)生“大戰(zhàn)”呢?相反,棋盤之外,人們的反應(yīng),比如無名的焦慮,不可克制的興奮,更具體點,漢語世界的看客幾乎異口同聲地把AlphaGo稱作“狗”,這卻是要超出現(xiàn)今任何人工智能可以“理解”的范圍的。
一些圍棋資深人士感到困惑,他們認(rèn)為AlphaGo給出選點的思維方式與人類很不同,還有一個流行的說法是,“最可怕的不是AlphaGo戰(zhàn)勝李世石,而在于它能贏卻故意輸?shù)?rdquo;。這本來是個玩笑,但這個玩笑引出的問題確實切中要害的。什么叫“故意”輸?shù)簦緼lphaGo并沒有自我意識,沒有自由意志,如何談得上“故意”?“故意”可是一種截然不同的能力。這就要求我們理解“弱人工智能”與“強人工智能”的原則區(qū)別了。
波斯特姆似乎會把機器的所謂“故意”描述為“超級智能的意愿”,在他看來,智能大爆發(fā)將會導(dǎo)向一個叫做“背叛轉(zhuǎn)折”的臨界點。關(guān)于背叛轉(zhuǎn)折,他這樣定義:“當(dāng)人工智能本來愚蠢時,變聰明是更安全的;但是當(dāng)它本來就聰明時,變得更聰明則是更危險的。就像有一個軸心點,到這個點上,原來很有效的策略會突然產(chǎn)生相反的結(jié)果。我們把這個現(xiàn)象叫作背叛轉(zhuǎn)折。”?
波斯特姆假想的人工智能厄運圍繞的仍是人的動機,而不是機器真正有了意圖。諸如他所列舉的,“機器”為了使得開發(fā)人工智能的贊助者高興,而“故意”表現(xiàn)得不那么“聰明”來蒙蔽人類,諸如在贊助者的大腦中植入負(fù)責(zé)快樂的電極,以使得贊助者被蒙蔽而不知覺,反而覺得很快樂。這里面涉及的,仍然是人與人之間的欺騙與控制。
只要沒有出離人與人之間的關(guān)系,人工智能呈現(xiàn)的問題與危機,就沒有超乎人類已經(jīng)面對過的控制與反控制的議題。也就是說,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會挑戰(zhàn)我們過往的既有經(jīng)驗,卻不是顛覆性的“消滅”;它會改變社會學(xué)階層分析的經(jīng)典框架,卻不會產(chǎn)生什么新型的劫難。
對人工智能的過度期待或深度憂慮,大多基于缺乏學(xué)理根據(jù)的科幻想象或人們對自身的身份認(rèn)同前景的恐慌。出版于1818年的《科學(xué)怪人》?就描述了“弗蘭肯斯坦”這個科學(xué)狂人,他以“科學(xué)”的方式使死尸復(fù)活,結(jié)果那個被稱為“弗蘭肯斯坦的怪物”的人造人反過來控制了弗蘭肯斯坦。文學(xué)作品展示人類的這種身份認(rèn)同焦慮,已經(jīng)源遠(yuǎn)流長,但今天的知識界科學(xué)界,如果還是止步于無的放矢的焦灼和恐懼,則無助于我們真正認(rèn)識人工智能與人類意識的本質(zhì)關(guān)系。
從人工智能目前的發(fā)展方向看,無論它再怎么“自動學(xué)習(xí)”“自我改善”,都不會有“征服”的意志,不會有“利益”訴求和“權(quán)利”意識。當(dāng)前,無論從緊迫性上看,還是從終極可能性上看,“弱人工智能”問題都屬于常規(guī)性問題,并且是漸進(jìn)呈現(xiàn)的。如果說在可見的未來,技術(shù)發(fā)展領(lǐng)域有什么更值得擔(dān)心、警醒、緊迫的事情,那么,或許基于虛擬技術(shù)的“擴展現(xiàn)實”的實現(xiàn)帶來的影響將更具顛覆性。?