【摘要】當(dāng)前,人工智能是否會(huì)挑戰(zhàn)人類社會(huì)秩序,進(jìn)而帶來倫理問題,已經(jīng)成為各方關(guān)注的焦點(diǎn)。對(duì)于人工智能可能帶來的倫理問題,我們應(yīng)通過完善相關(guān)立法、加強(qiáng)對(duì)相關(guān)技術(shù)與產(chǎn)品的管理力度,以及提升群眾的認(rèn)知素養(yǎng)來進(jìn)行規(guī)避。
【關(guān)鍵詞】人工智能 倫理問題 立法 【中圖分類號(hào)】B82-057 【文獻(xiàn)標(biāo)識(shí)碼】A
2018年7月9日,在中國發(fā)展研究基金會(huì)和微軟公司聯(lián)合舉辦的《未來基石——人工智能的社會(huì)角色與倫理》報(bào)告發(fā)布會(huì)上,微軟公司總裁施博德指出,為設(shè)計(jì)出可信賴的人工智能,需要采取體現(xiàn)道德原則的解決方案,在給予計(jì)算機(jī)更強(qiáng)大力量的同時(shí),也應(yīng)當(dāng)借助社會(huì)倫理對(duì)其進(jìn)行合理引導(dǎo)。實(shí)際上,科技的發(fā)展是否會(huì)對(duì)人類的生存造成威脅,取決于人類是否能夠借助適應(yīng)性的治理方式來應(yīng)對(duì)。因此,面對(duì)人工智能可能帶來的倫理問題,我們需要做的便是合理規(guī)避。
人工智能可能會(huì)帶來何種倫理問題
人工智能帶來的究竟是福祉還是挑戰(zhàn),這一問題其實(shí)已經(jīng)在眾多文學(xué)、影視作品中進(jìn)行過探討。比如,在《最強(qiáng)大腦》第四季首期節(jié)目中,植入百度大腦的小度機(jī)器人借助人臉識(shí)別技術(shù)與深度學(xué)習(xí)能力戰(zhàn)勝了世界記憶大師王峰;谷歌研發(fā)的人工智能“阿爾法狗”接連擊敗了各國圍棋高手,登上了人類智力游戲的頂峰。然而,當(dāng)前部分以人機(jī)對(duì)戰(zhàn)為噱頭的綜藝節(jié)目,對(duì)人工智能的概念進(jìn)行了曲解,人為地營造出了一種人機(jī)之間劍拔弩張的對(duì)立氛圍。事實(shí)上,這些對(duì)人工智能的曲解可能會(huì)導(dǎo)致真正問題的出現(xiàn)。
目前,人工智能可能帶來的倫理問題主要體現(xiàn)在兩個(gè)方面:一方面,一旦人工智能具備了超越機(jī)器的屬性,愈發(fā)類似于人的時(shí)候,人類是否應(yīng)當(dāng)給予其一定的“人權(quán)”;另一方面,人工智能正在逐步被人類賦予思想、學(xué)習(xí)和決策能力,在某些社會(huì)生產(chǎn)、生活領(lǐng)域逐漸替代人類,那么其在生產(chǎn)、生活中造成的過錯(cuò)應(yīng)當(dāng)如何解決。針對(duì)這些情況,如何基于倫理視角引導(dǎo)人工智能服務(wù)于人類,已經(jīng)成為人工智能發(fā)展必然要面對(duì)的問題。
美國學(xué)者雷·庫茲韋爾在《如何創(chuàng)造思維》一書中提出,至本世紀(jì)三十年代前后,人類將有能力制造出極為智能的機(jī)器人,其能夠與人類產(chǎn)生一定程度的情感聯(lián)系,并具備自我意識(shí)。因此,當(dāng)前人類應(yīng)加快討論可能出現(xiàn)的倫理問題,即一旦高智能機(jī)器人誕生,出現(xiàn)了自我意識(shí),人類是應(yīng)當(dāng)遏制其進(jìn)一步成長(zhǎng),還是給予其“人權(quán)”。部分學(xué)者認(rèn)為,賦予人工智能以“人權(quán)”是對(duì)人工智能的放縱,將對(duì)人類的生命安全造成威脅。持相反觀點(diǎn)者則認(rèn)為,人類能夠開發(fā)出符合人類道德的人工智能產(chǎn)品,因此可以給予人工智能部分基礎(chǔ)的“人權(quán)”。
當(dāng)人工智能取代人類站在某些工作崗位上時(shí),其造成的過錯(cuò)應(yīng)當(dāng)由何人來負(fù)責(zé),從責(zé)任倫理視角來看,這是值得討論的問題。比如,當(dāng)人工智能取代了部分醫(yī)療人員的崗位,誤診出現(xiàn)時(shí),人們應(yīng)當(dāng)向誰追責(zé),是醫(yī)療機(jī)器人的使用方,還是生產(chǎn)方,抑或是其本身?實(shí)際上,這并非是遠(yuǎn)離人類當(dāng)前生活的問題,在測(cè)試階段便已事故頻發(fā)的無人駕駛汽車已然將這一問題推到了人類面前。
人工智能為何會(huì)帶來倫理問題
隨著人工智能技術(shù)的快速發(fā)展,其可能引發(fā)的倫理問題也愈發(fā)突顯。那么,人工智能為何會(huì)帶來倫理問題呢?
首先,是因?yàn)橄嚓P(guān)法律保障的不足。目前,人工智能的智慧增長(zhǎng)速度日益加快,已然走進(jìn)了人類生產(chǎn)、生活的各個(gè)方面,使人類深切地感受到了其帶來的便利。但當(dāng)前針對(duì)人工智能的相關(guān)立法工作還較為緩慢。雖然人工智能的智慧程度還不足以撼動(dòng)人類的主導(dǎo)地位,但人工智能的立法工作已然迫在眉睫。
其次,是因?yàn)橄嚓P(guān)技術(shù)的不成熟。以“阿爾法狗”與李世石的對(duì)戰(zhàn)為例,雖然“阿爾法狗”在運(yùn)算能力上遠(yuǎn)勝于人類,通過計(jì)算每一步的最大勝率來進(jìn)行下一步操作,但其卻在第四局比賽中敗給了運(yùn)算能力明顯更弱的人類。由此可知,人工智能極有可能在實(shí)際運(yùn)作過程中出現(xiàn)問題,需要進(jìn)行技術(shù)完善與優(yōu)化。
最后,是因?yàn)槿祟惼娴恼J(rèn)知。Facebook研究團(tuán)隊(duì)曾在試驗(yàn)中令兩個(gè)人工智能機(jī)器人進(jìn)行對(duì)話,但隨著對(duì)話的深入,人們發(fā)現(xiàn)人工智能竟然發(fā)明出了人類難以理解的特殊語言,這使得研究人員大驚失色,及時(shí)進(jìn)行了干預(yù),避免人工智能通過對(duì)話實(shí)現(xiàn)超出人類預(yù)期的升級(jí)。這一事件的發(fā)生,加劇了人工智能威脅論支持者的擔(dān)憂情緒,但作為反對(duì)者的扎克伯格則認(rèn)為,人類花費(fèi)大量資源研發(fā)人工智能,就是希望其在某些方面優(yōu)于人類,以便更好地服務(wù)于人類。因此,從目前來看,人工智能引發(fā)倫理問題的重要原因,就在于人類對(duì)人工智能的片面認(rèn)知。
如何規(guī)避人工智能帶來的倫理問題
一是完善相關(guān)立法。法律是保障人類各項(xiàng)基本權(quán)益的重要武器。首先,要加強(qiáng)事前立法,借助法律手段規(guī)范人工智能的發(fā)展,確保其始終在人類可控范圍內(nèi),規(guī)避可能發(fā)生的倫理問題。其次,要加強(qiáng)事中立法,即針對(duì)人工智能可能帶來的倫理問題進(jìn)行相關(guān)立法,明確責(zé)任劃分依據(jù)與標(biāo)準(zhǔn),從而保證研發(fā)責(zé)任人、生產(chǎn)責(zé)任人、銷售責(zé)任人以及使用責(zé)任人都能夠較好地履行自身對(duì)人工智能產(chǎn)品的義務(wù)。最后,要加強(qiáng)事后立法,確保人工智能技術(shù)得到廣泛運(yùn)用,并進(jìn)入群眾生活。總之,通過相關(guān)法律規(guī)范人工智能產(chǎn)品的開發(fā)與利用,能夠避免人工智能產(chǎn)品脫離控制,進(jìn)而規(guī)避可能產(chǎn)生的倫理問題。
二是加強(qiáng)對(duì)相關(guān)技術(shù)與產(chǎn)品的管理力度。一旦技術(shù)發(fā)展成熟,人工智能便能夠正式參與人類生活。因此,我們要加強(qiáng)對(duì)人工智能技術(shù)與產(chǎn)品的管理,使其具備優(yōu)良的“倫理品質(zhì)”。首先,要加強(qiáng)對(duì)人工智能技術(shù)的管理,要對(duì)人工智能產(chǎn)品的應(yīng)用程序進(jìn)行審查,確保程序未被嵌入惡意性代碼。同時(shí),要提高行業(yè)準(zhǔn)入門檻,確保技術(shù)安全性。其次,要加強(qiáng)對(duì)人工智能產(chǎn)品的管理。每一個(gè)出廠的產(chǎn)品都應(yīng)設(shè)置唯一的識(shí)別碼,同時(shí),應(yīng)在產(chǎn)品內(nèi)部放置監(jiān)控器,確保能夠?qū)Ξa(chǎn)品進(jìn)行實(shí)時(shí)遠(yuǎn)程控制,避免意外事件的發(fā)生。
三是提高群眾的認(rèn)知素養(yǎng)。人工智能的發(fā)展方向很大程度上取決于人類自身。如果人類一味地拒絕接受該項(xiàng)技術(shù),人工智能勢(shì)必?zé)o法服務(wù)人類;如果人類不假思索地接受該項(xiàng)技術(shù),則勢(shì)必會(huì)為倫理問題的發(fā)生埋下隱患。因此,唯有提升群眾的認(rèn)知素養(yǎng),才能使人工智能更好地為人類服務(wù)。首先,應(yīng)提高科研人員的認(rèn)知素養(yǎng),使其堅(jiān)持對(duì)人類和社會(huì)負(fù)責(zé),在人工智能研究方向、研究方法以及研究成果應(yīng)用的過程中,始終保持謹(jǐn)慎的態(tài)度,既不因?yàn)閼?yīng)用效果較好而過分樂觀,也不因當(dāng)前存在的不足而萬分驚恐,甚至全然抵制。其次,應(yīng)提高普通群眾的認(rèn)知素養(yǎng),引導(dǎo)群眾認(rèn)識(shí)了解人工智能,理性發(fā)展技術(shù)。
(作者分別為中國勞動(dòng)經(jīng)濟(jì)學(xué)會(huì)研究員;中國社會(huì)科學(xué)院研究生院博士研究生)
【參考文獻(xiàn)】
①張正清、黃曉偉:《作為“他者”而承擔(dān)道德責(zé)任的智能機(jī)器——一種人工智能成為道德能動(dòng)者的可能性》,《道德與文明》,2018年第4期。
②潘宇翔:《大數(shù)據(jù)時(shí)代的信息倫理與人工智能倫理——第四屆全國賽博倫理學(xué)暨人工智能倫理學(xué)研討會(huì)綜述》,《倫理學(xué)研究》,2018年第2期。
③王勇:《人工智能時(shí)代的法律主體理論構(gòu)造——以智能機(jī)器人為切入點(diǎn)》,《理論導(dǎo)刊》,2018年第2期。
責(zé)編/陳楠 孫渴 美編/宋揚(yáng)
聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個(gè)人轉(zhuǎn)載請(qǐng)回復(fù)本微信號(hào)獲得授權(quán),轉(zhuǎn)載時(shí)務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。