【摘要】人工智能技術在推動社會發(fā)展的同時也對社會秩序造成了一定沖擊。面對這樣的問題,應以法律為武器調整科技與社會之間的關系。我國人工智能發(fā)展法治建設要正確認識人工智能發(fā)展的社會影響,明確技術開發(fā)者的法律責任,加強對人工智能技術發(fā)展的法律監(jiān)督,并同步強化倫理道德建設,促進人工智能技術與社會的穩(wěn)步發(fā)展。
【關鍵詞】人工智能 科技 法律 倫理道德 【中圖分類號】D92 【文獻標識碼】A
人工智能技術已經(jīng)成為下一輪科技競爭的焦點,世界各國也紛紛布局人工智能發(fā)展戰(zhàn)略,搶抓新的發(fā)展機遇。2017年7月,國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,將發(fā)展人工智能技術納入到國家級戰(zhàn)略規(guī)劃的層面當中。面對人工智能技術日新月異的發(fā)展,我們也要深刻認識到“科學技術是一把雙刃劍”,建立完善相關法律法規(guī),規(guī)范人工智能的發(fā)展。
以人工智能為代表的科技快速發(fā)展往往會導致法律秩序產(chǎn)生新的變化
科技的快速發(fā)展改變了傳統(tǒng)的社會關系,擴大了立法范圍。在經(jīng)濟社會中,科技往往表現(xiàn)為能夠推動社會發(fā)展的生產(chǎn)力,這就必然會導致生產(chǎn)關系發(fā)生同步變化,新的法律問題也就會隨之出現(xiàn)。要想解決與之對應的社會矛盾需要不斷擴大立法范圍,增強對科技本身以及社會發(fā)展的監(jiān)管?,F(xiàn)如今,科技法在我國已經(jīng)成為了一個獨立的法律部門,同時其規(guī)模體系也在不斷趨于完善。借鑒其他國家面對科技發(fā)展的立法經(jīng)驗,現(xiàn)階段我國科技法的基本做法是通過立法來干預科技發(fā)展的方向,并對因科技發(fā)展而異化的社會關系進行調整。當前我國已經(jīng)進入到科技發(fā)展的快車道,科技立法工作也必須要同步跟進才能滿足社會的發(fā)展需求。
在知識經(jīng)濟時代,科技發(fā)展本身也屬于社會經(jīng)濟活動的一部分,需要以法律維護科技創(chuàng)新的健康穩(wěn)定發(fā)展。隨著創(chuàng)新驅動發(fā)展戰(zhàn)略的全面推進,科技創(chuàng)新在社會生產(chǎn)中的重要性逐漸凸顯出來,同時圍繞著科技發(fā)展所展開的資源爭奪、市場競爭變得異常激烈,這些都要求我們必須要圍繞科技發(fā)展的基本情況,出臺行之有效的法律法規(guī),引領科技發(fā)展走上正確的道路。
人工智能技術的發(fā)展是人類歷史上一次偉大的技術革命,同時也將對人類社會的既有法律秩序造成強烈沖擊。我國現(xiàn)行法律法規(guī)缺乏對人工智能影響的充分考慮,在對受人工智能影響的社會加以引導與調整上存在不足。為此,就需要建立健全人工智能法律體系,降低技術發(fā)展對社會公眾所造成的潛在負面影響,同時為人工智能的發(fā)展提供一個和諧穩(wěn)定的法治空間。由于人工智能技術屬于多學科的交叉技術,所涉及的內容相對較為復雜,人工智能法律創(chuàng)新必須從實際出發(fā)對既有法律法規(guī)進行升級,促進社會與技術發(fā)展。
明確界定人工智能技術開發(fā)主體所須承擔的對應法律責任
人工智能技術與傳統(tǒng)科技之間最大的差異在于能夠實現(xiàn)對人的模擬,完成開發(fā)的人工智能技術具有類似于人的思維能力,甚至能獨立展開思考。由此可見,人工智能技術對人類社會所帶來的沖擊將會是前所未有的。人工智能技術的開發(fā)者作為潛在風險的創(chuàng)造者必然需要承擔相應的法律責任。
要明確界定人工智能的成果的法律歸屬問題。人工智能技術最大的優(yōu)勢在于能夠獨立完成一些具有創(chuàng)新性的工作,那么由人工智能技術所生產(chǎn)的新知識也具有知識產(chǎn)權的基本特征。實際上由于人工智能技術并不能像人一樣去行使自己的知識產(chǎn)權權利,同時技術本身也無法作為人工智能的法律主體。因此,應當將知識產(chǎn)權歸屬于人工智能技術的生產(chǎn)主體,歸根究底人工智能技術所生產(chǎn)的新知識依然是由人所創(chuàng)造的算法而生成的,其本質依然是人的主觀能動創(chuàng)作。法律法規(guī)也需要補充相關規(guī)定,將人工智能技術的創(chuàng)新成果歸于技術主體。另外,為了避免人工智能技術用于違法犯罪等不合理的場景,對于人工智能技術所造成的負面效應也應由技術主體承擔。
嚴格規(guī)范人工智能技術的生產(chǎn)、銷售與使用等多個環(huán)節(jié),降低人工智能技術對社會發(fā)展的非理性沖擊。一是要對人工智能技術的開發(fā)者進行嚴格的法律約束,要求所有開發(fā)者必須要堅持以人為本的基本理念,堅守社會道德倫理,切不可故意挑戰(zhàn)正常的社會關系,對于濫用人工智能技術的開發(fā)者要給予嚴厲的法律制裁。二是要給予人工智能技術的銷售者與使用者必要的法律約束,引導社會公眾正確對待人工智能技術,合理應用人工智能技術。對于所有從事人工智能產(chǎn)品銷售的商家要嚴格遵守法律法規(guī)規(guī)定,銷售合格的人工智能產(chǎn)品,使用者也要在具體產(chǎn)品的說明指引下合理利用人工智能技術,并且不能對他人的合法權益造成損害。同時,法律還需要明確界定人工智能技術所引發(fā)的損害中不同主體的責任分擔機制。三是應要求所有新興人工智能產(chǎn)業(yè)建立產(chǎn)品溯源機制,為社會公眾所面臨的潛在科技風險提供充分的法律支撐。四是要規(guī)范人工智能技術對公民信息的加工利用?,F(xiàn)如今人工智能技術在大數(shù)據(jù)層面的應用最為廣泛,而其中最為成熟的就是在消費數(shù)據(jù)挖掘方面的應用。為此,要加強對公民信息安全與隱私的法律保護,應禁止任何主體利用人工智能技術侵犯公民的信息安全。
人工智能技術的法律規(guī)制既要落實法律監(jiān)督也要加強倫理道德建設
加強對人工智能技術的法律監(jiān)督,降低潛在發(fā)展風險。一是對人工智能技術的發(fā)展要抱有敬畏之心,對可能存在的潛在風險要從技術發(fā)展之初就做好防控措施。法律監(jiān)督是實施技術發(fā)展風險全方位布控的重要手段,立法者要密切關注人工智能技術發(fā)展動態(tài),確保風險防控法治化進程的有效落實。例如,立法機關在通過加強對人工智能的專利保護激勵相關主體提升技術創(chuàng)新熱情的同時,也要有效規(guī)避因人工智能技術的不合理使用而引發(fā)的不必要風險。與此同時,人工智能法律法規(guī)還需要在現(xiàn)行科技法的基礎之上建立對人工智能技術開發(fā)、應用等全過程的法律約束,并明確不同行為所需承擔的法律責任。二是需要進一步明確技術防控的法律職責,提升人工智能技術風險防控效率。人工智能技術風險防控切不可脫離技術層面而實施純粹的“法律監(jiān)督”,但技術防控也需要借助法律的權威性方可實現(xiàn)。在具體法律實踐當中,與技術防控相關的法律監(jiān)督主要體現(xiàn)在政策的制定、倫理規(guī)制的構建以及法律法規(guī)的優(yōu)化,要將責任制落實到這些工作當中,賦予不同主體對應的技術防控責任。三是充分借調社會力量參與人工智能發(fā)展法律監(jiān)督當中,完善風險防控機制。現(xiàn)行法律制度需要從長遠角度出發(fā)明確社會公眾監(jiān)督對于人工智能技術發(fā)展的重要意義,為此,應將引導公眾反饋人工智能技術細節(jié)的法律職責歸置于企業(yè)或技術開發(fā)者身上,引導企業(yè)與開發(fā)者通過多路徑落實社會公眾對人工智能技術發(fā)展的監(jiān)督。
人工智能時代社會關系的調整還需從倫理道德方面發(fā)力。法律與道德是調整社會關系的兩大重要武器,通過倫理道德的調整范式社會矛盾能得以有效緩和。針對人工智能技術所產(chǎn)生的潛在社會秩序矛盾,倫理道德也能充分發(fā)揮積極的作用。另外,倫理道德相比于法律更加靈活,對技術發(fā)展的適應性也更強。法律的制定較為嚴謹,需要經(jīng)過繁瑣的立法程序,耗時較長,在時效性方面相對較弱,這與人工智能技術的快速發(fā)展之間存在著明顯沖突。然而倫理道德則能夠對技術發(fā)展保持高度的敏感性。近年來,美國、德國、日本等人工智能發(fā)展較為迅速的國家都強化了倫理道德的建設來應對人工智能技術的潛在風險,谷歌、甲骨文、百度等人工智能技術企業(yè)也增強了人工智能專家的倫理職責,并對人工智能技術的社會學屬性進行了全方位的解讀。由此可見,在借助法律作用規(guī)制人工智能技術發(fā)展的同時,也要突出倫理道德的優(yōu)勢,進一步加強對人工智能技術發(fā)展的監(jiān)管。一方面,要制定人工智能倫理道德準則,設置人工智能技術發(fā)展的道德底線,始終將人工智能技術控制在理性倫理范圍內。另一方面,要通過倫理道德去約束科技工作者,倡導科技工作者以社會需求為導向開發(fā)人工智能技術產(chǎn)品,促進社會和諧。
(作者為西安交通大學法學院博士研究生)
【參考文獻】
①梁志文:《論人工智能創(chuàng)造物的法律保護》,《法律科學》(西北政法大學學報),2017第5期。
②吳習彧:《論人工智能的法律主體資格》,《浙江社會科學》,2018年第6期。
③程龍:《從法律人工智能走向人工智能法學:目標與路徑》,《湖北社會科學》,2018年第6期。
責編/于洪清 美編/陳琳(見習)