www.av视频在线观看,亚洲免费影院第一第二,一级毛片在现观看,久久精品片色免费看网站,日本大香伊蕉在人线国产,奇米精品一区二区三区在线观看,亚洲网站一区

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

人工智能:一項戰(zhàn)略性技術的應用及治理

【摘要】人工智能技術是引領全球科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術,正在重塑人們對國家安全、經(jīng)濟與社會發(fā)展的理解??焖侔l(fā)展中的人工智能也隱藏著一定的不確定性,可能會引發(fā)社會安全風險,甚至帶來國家之間的競爭沖突升級。當前,人工智能的發(fā)展已經(jīng)成為推動國際體系轉(zhuǎn)變、影響國際關系走向的關鍵技術力量,我們需要從戰(zhàn)略高度來看待人工智能的作用,充分認識其可能帶來的機遇和風險,并從技術、應用、治理和規(guī)則等層面全方位加大對人工智能的投入。

【關鍵詞】人工智能戰(zhàn)略 人工智能治理 國際格局 治理困境 【中圖分類號】D815;TP18 【文獻標識碼】A

如何定義人工智能的戰(zhàn)略性意義,是這個時代需要回答的重要問題。國際問題專家基辛格指出,在人類所掌握的技術中,真正具有戰(zhàn)略性意義的技術只有核武器、網(wǎng)絡安全技術和人工智能。核武器是因為其毀滅性力量,網(wǎng)絡安全則是因其廣泛存在于所有的信息系統(tǒng)之中,并且持續(xù)面臨被攻擊的風險。人工智能的戰(zhàn)略性則結合了前兩者的特點,不僅具有毀滅性力量,而且也存在持續(xù)且廣泛的安全性問題。對于人工智能這一重要戰(zhàn)略性技術,國際、國內(nèi)存在著多元的觀點和態(tài)度。歷史地看,大國必須從戰(zhàn)略高度重視技術的發(fā)展,并且始終保持在全球技術發(fā)展的第一陣營。當然,與歷史上其他技術不同,在人工智能發(fā)展戰(zhàn)略中,安全和治理不可或缺,且是決勝的關鍵。

人工智能的戰(zhàn)略性意義

人工智能被廣泛認為是可以改變“游戲規(guī)則”的戰(zhàn)略性科技。美國率先發(fā)布人工智能戰(zhàn)略,隨后中國、歐盟、日本、韓國等紛紛出臺了各自的人工智能戰(zhàn)略。而且,聯(lián)合國秘書長古特雷斯也多次就人工智能問題發(fā)聲,呼吁從戰(zhàn)略高度來看待人工智能安全對國際體系的影響。盡管如此,人工智能在現(xiàn)實社會中的應用還處于早期階段,公眾對于人工智能顛覆性影響的感知并不強烈。因此,我們有理由去質(zhì)疑人工智能是否可以擔此重任。戰(zhàn)略性技術意味著這是一項具全局性的、重大的、決定勝負的關鍵性技術。人工智能是否具備這三個特質(zhì)?

首先,從全局性來說,人工智能技術的通用性將人類社會帶入真正的“智能時代”。人工智能跟蒸汽機、發(fā)電機一樣是通用型技術,對生產(chǎn)力的提升、人類生活方式的改變都有巨大的推動作用。正因如此,人工智能技術也將被國家、企業(yè)、個人等不同層次的行為體廣泛使用,進而對政治、安全、經(jīng)濟、文化等不同領域產(chǎn)生深刻的影響。生成式人工智能的發(fā)展進一步降低了人工智能使用的門檻,大模型將會廣泛地應用于國家治理與社會生活的各個領域,由此帶來的全局性影響也將進一步凸顯。生成式人工智能正在加速智能革命。一方面,立足于面向公眾的通用大模型不斷面世,逐漸在藝術設計、知識管理、市場營銷、代碼生成和客戶服務等方面逐步取代原有的工作模式。另一方面,各行各業(yè)垂直領域的專用大模型研發(fā)也在如火如荼地開展,金融、政務、制造業(yè)、能源、醫(yī)療、零售、教育領域的應用場景也都比較成熟,人工智能會進一步賦能和改造這些行業(yè)。

其次,從重要性來看,人工智能深刻改變了國家安全與國際和平的基本范式。因為人工智能對國際和平與國家安全領域都有系統(tǒng)性影響,導致國家安全與國際和平的內(nèi)容、形式和目標也發(fā)生了嬗變??梢哉f,人工智能技術將國家安全與國際和平帶入新一輪的蛻變期,使得“安全”與“和平”超出了傳統(tǒng)政治議題的范圍,成為政治、經(jīng)濟和技術三維一體的復合型問題??梢詮娜齻€層面來理解人工智能所帶來的影響。從賦能的角度看,人工智能將大幅提升戰(zhàn)場的決策和行動能力。當前,人工智能技術已被大量運用到軍事和情報領域。在軍事領域,決策輔助系統(tǒng)、智能化后勤保障、無人機群、無人艦艇等各種類型的人工智能武器正廣泛應用于戰(zhàn)場實驗,將會推動軍事變革從信息化作戰(zhàn)轉(zhuǎn)向智能化作戰(zhàn)。從自主性的角度看,人工智能武器系統(tǒng)具備了自主決策的能力。目前,主要大國紛紛開發(fā)致命性自主武器,并投入戰(zhàn)場予以測試,引發(fā)了關于技術倫理問題的廣泛討論和擔憂。例如,美國具備自主判斷能力的無人機就曾經(jīng)誤判目標,導致無辜平民被當作恐怖分子而被殺害。從技術的角度看,人工智能所帶來的風險可以從客體和主體兩個層面來理解,即技術本身,以及使用技術的“人”。人工智能的風險對使用主體提出了更高的責任要求。

最后,從決定勝負的關鍵來看,人工智能技術發(fā)展水平已經(jīng)成為國家實力的關鍵指標。與其他通用型技術相比,人工智能建立在大模型、大參數(shù)、高算力和大數(shù)據(jù)的基礎上,不僅產(chǎn)業(yè)融合程度高且易于壟斷。加上人工智能作為軍民兩用型技術,市場的力量不僅會加速技術的發(fā)展和迭代,進而提升對軍用技術的賦能效果,而且軍事應用同樣也會推動市場力量加大研發(fā)投入。如此循環(huán)增強之下人工智能技術的“馬太效應”也愈加突出。領先者將會通過技術優(yōu)勢來占領市場并開啟循環(huán)增強,進而擁有更多的先發(fā)優(yōu)勢,導致后來者在追趕的過程中面臨更大的壓力和障礙。在國際政治中,技術是各國提升硬實力的重要基礎,也是改變國際格局力量對比的動力源之一。美國為了維護自身在人工智能領域的主導地位,其霸權主義傾向隨著人工智能技術的發(fā)展日趨明顯。事實上,從算法、算力和數(shù)據(jù)這三大人工智能發(fā)展的基礎領域來看,美國占據(jù)了絕對的主導權。盡管如此,美國依舊高度警惕任何潛在對手在這些領域可能取得的突破。為此,美國政府制定了大量針對中國人工智能領域的封鎖、制裁和懲罰性舉措。

生存、安全、發(fā)展、治理:人工智能面臨的多重風險

第一,人工智能給人類帶來“生存之困”。人工智能的發(fā)展會極大提升人類的能力,同時也可能存在取代甚至摧毀人類的風險。通用人工智能技術的發(fā)展極大提高了人工智能的學習、掌握知識以及執(zhí)行任務的能力。而人工智能一旦在認知能力上超越了人類,并且具有了自主決策的意識,人類或?qū)θ斯ぶ悄艿目刂?。如此一來,人工智能是否會傷害甚至毀滅試圖控制它的人類呢?人工智能技術越發(fā)展、應用越廣泛,類似的觀點就會越流行。這種觀點的產(chǎn)生一部分是受到了科幻小說的影響,也有一部分是由于人工智能技術復雜性所帶來的理解障礙,因此造成了“技術恐慌”。同時,人工智能在技術上存在的算法黑箱、幻覺進一步助推了這種觀點。這些討論不僅迫使科技巨頭呼吁加強對人工智能的監(jiān)管,也推動著各國加速制定人工智能相關法律。這些做法旨在規(guī)范人工智能技術的演進,使其向著安全、可靠的方向發(fā)展。歸根結底,人工智能技術是否會給人類社會帶來毀滅性的影響,是對人類能否駕馭人工智能的考驗。

第二,人工智能引發(fā)“安全之困”。人工智能在安全層面引發(fā)的“安全困境”已經(jīng)為學者所認識并進行了充分討論。國際政治的競爭歸根結底是權力的競爭,而技術又是實現(xiàn)權力的重要依托。人工智能作為一項顛覆性技術,勢必會引發(fā)國家間競爭,且存在“安全困境”的風險。此外,人工智能在國家安全、軍事領域也具有廣泛的應用空間,也可能會引發(fā)巨大的倫理風險。將載有人工智能系統(tǒng)的無人機應用于暗殺和地面攻勢引發(fā)了關于機器殺人的倫理問題。一方面,人工智能可能會造成大規(guī)模的人員傷亡,造成大量的士兵失去生命。另一方面,人工智能存在誤判的風險,無法有效識別軍事目標和平民,從而加劇平民的無辜傷亡。

第三,人工智能引發(fā)不平衡的“發(fā)展之困”。人工智能具有提升經(jīng)濟效率的廣泛前景,由此帶來的“馬太效應”會使得更多的資源向頭部企業(yè)集中。不僅如此,人工智能技術的滲透可能還會引發(fā)一些企業(yè)的倒閉和失業(yè)潮。一方面,人工智能發(fā)展的主要受益者首先是平臺企業(yè),它們掌握了算力和數(shù)據(jù),擁有發(fā)展人工智能得天獨厚的條件。另一方面,人工智能不斷向垂直領域滲透,也會讓更高效的“大機器生產(chǎn)”取代人類的工作,進而引發(fā)失業(yè)問題。國際金融服務公司摩根士丹利(Morgan Stanley)2023年9月發(fā)布的報告顯示,人工智能的發(fā)展在未來幾年內(nèi)將產(chǎn)生4.1萬億美元的經(jīng)濟影響,或者影響約44%的勞動力。由此可見,人工智能技術或?qū)⒉豢杀苊獾卦斐墒I(yè)問題的擴大。

第四,人工智能存在著“治理之困”。人工智能在賦能社會的同時,也正在被廣泛應用于網(wǎng)絡攻擊、電信詐騙、虛假信息等違法犯罪領域,并且?guī)砹艘幌盗行碌闹卫韱栴}。傳統(tǒng)的法律和規(guī)定往往無法完全適應人工智能技術的快速發(fā)展和復雜變化。如無人駕駛帶來了責任認定的法律問題,生成式人工智能引發(fā)了知識產(chǎn)權問題。人工智能系統(tǒng)可以創(chuàng)造獨特的作品和內(nèi)容,但是如何保護這些作品的權益、進行合理的利益分享也是一大挑戰(zhàn)。這些問題都觸及到了當前的法律盲區(qū),對現(xiàn)有的治理體系帶來了極大挑戰(zhàn)。因此,人工智能技術的到來迫使政府、學術界、產(chǎn)業(yè)界、技術社群等各利益相關方加強合作,共同研究和制定適應人工智能時代的新治理框架。

上述四個方面都是從不同層次的正反兩個方面來理解人工智能,尤其是采取了靜態(tài)的視角來看待人工智能,因此都不夠全面。這些觀點也未能認識到,隨著各方對人工智能治理的關注和投入的加大,人工智能的治理體系也在快速建立。因此,不應當因為困境的存在就叫停技術的發(fā)展,而是要加速對人工智能的理解并提升治理能力。

人工智能發(fā)展正面臨關鍵時刻

人工智能的關鍵時刻體現(xiàn)在三個方面,一是技術突破的關鍵時刻;二是大規(guī)模應用的關鍵時刻;三是大國博弈的關鍵時刻。

首先,從技術發(fā)展的歷史進程來看,人工智能正在經(jīng)歷重大突破的關鍵時刻。自20世紀50年代人工智能技術的概念被提出以來,人工智能的發(fā)展經(jīng)歷了深藍、阿爾法狗(AlphaGo)和ChatGPT這三次“高光時刻”。2022年,OpenAI發(fā)布ChatGPT-3.5迅速引發(fā)了全球熱議,短短兩個月的時間注冊用戶就突破了1億。ChatGPT背后是生成式人工智能所取得的一系列重大技術突破,主要包括基于Transformer深度學習架構的大型語言模型(LLM);通過使用大規(guī)模數(shù)據(jù)集和無監(jiān)督學習的方法對模型進行初始訓練的預訓練學習范式;以及結合了強化學習和人類反饋的機器學習技術——人類反饋強化學習(RLHF)。這些技術改變了機器對于自然語言處理的方式、提升了模型性能、降低了開發(fā)成本,并且建立了模型自我升級迭代的能力。因此,我們體驗到的ChatGPT以及類似的產(chǎn)品在功能性、實用性和自我進化方面擁有極為優(yōu)秀的表現(xiàn)。但是,技術的發(fā)展始終面臨階段性的波折,在生成式人工智能取得突破之后,人工智能的發(fā)展是否會陷入新的瓶頸期也是關鍵問題。因此,不能簡單的用線性思維來看待人工智能的發(fā)展與治理。

其次,從應用角度來看,人工智能大規(guī)模應用一觸即發(fā)。對比深藍、阿爾法狗與新晉的大語言模型ChatGPT可知,前兩次的突破更多是停留在技術層面,而ChatGPT的推出則標志著人工智能在技術和應用層面取得了雙重突破。人工智能的應用價值主要體現(xiàn)在是否能夠提升效率、降低成本和開辟新領域。目前,主流的科技企業(yè)都把人工智能視為核心競爭力并競相加大投資,谷歌投資了Deepmind、微軟投資了OpenAI、百度開發(fā)了文心一言等。根據(jù)國際數(shù)據(jù)公司(IDC)的數(shù)據(jù),2021年全球人工智能市場規(guī)模為3619億美元,預計2025年將會突破7000億美元,年復合增長率18%。考慮到廣泛的賦能作用,這一數(shù)據(jù)還只反映了人工智能經(jīng)濟價值的冰山一角。

最后,人工智能正處于大國博弈的關鍵時刻。一方面,大國追求人工智能的主導權引發(fā)了地緣政治博弈。美國政府明確將人工智能列為對華制裁的三大重點領域之一,制定了一系列出口管制措施,試圖切斷美國企業(yè)、資金和人才與中國之間的合作。不僅如此,美國還進一步將制裁延伸到GPU芯片領域,阻止中國獲取先進的芯片用以訓練人工智能模型。另一方面,大國圍繞人工智能國際規(guī)則進行博弈。隨著人工智能技術的不斷發(fā)展,需要制定相應的國際規(guī)則和規(guī)范來管理、約束其應用。各國將爭奪在國際規(guī)則制定中的話語權和主導權,以確保本國在人工智能領域的利益得到保護。

保證人工智能能夠向善發(fā)展的關鍵

戰(zhàn)略性價值和意義決定了人工智能的發(fā)展只會進一步加速而不會停止,因此,要從戰(zhàn)略層面加大對人工智能的重視和投入。與此同時,加大在安全監(jiān)管和治理方面的投入是保證人工智能能夠向善發(fā)展的關鍵。

一是從戰(zhàn)略高度堅定人工智能的發(fā)展方向,大力推動人工智能發(fā)展。面對人工智能這樣一項通用型技術的發(fā)展,既會有受益者也會有受害者、既會有支持者也會有反對者、既會有激進者也會有保守者,而不同的群體、不同的視角會導致不同的觀點。在ChatGPT出現(xiàn)之初,基于其在內(nèi)容安全、知識產(chǎn)權等方面的不確定性,一部分企業(yè)對于是否要發(fā)展生成式人工智能存在疑慮。2023年4月28日中共中央政治局會議明確提出“要重視通用人工智能發(fā)展”,同年7月24日再提“要促進人工智能安全發(fā)展”。如果說ChatGPT驗證了通用人工智能發(fā)展的技術路線,官方表態(tài)則從政策方面為人工智能產(chǎn)業(yè)的大力發(fā)展奠定了基調(diào)。此外,生成式人工智能代表的是一種高算力、大參數(shù)、大模型、大數(shù)據(jù)的人工智能路線。盡管擁有廣闊的市場前景,但也離不開國家在戰(zhàn)略層面的支持和投入。在人工智能領域的開放式頂層設計思維,可以強化政府對于人工智能技術發(fā)展方向的參與和掌握,促進人工智能技術發(fā)展與國家戰(zhàn)略目標的有機協(xié)調(diào)。

二是要高度重視人工智能的安全風險問題,強化對人工智能的安全監(jiān)管。當前,人工智能的安全主要體現(xiàn)在算法安全、數(shù)據(jù)安全、網(wǎng)絡安全等方面,其中關鍵是確保算法不會出現(xiàn)安全隱患。這就需要加強對人工智能的可解釋性問題、透明度問題和有害性等方面的研究。此外,政府一方面可以通過建立技術標準來規(guī)范人工智能的開發(fā)和應用,提高人工智能的質(zhì)量和性能;另一方面也可以檢測和監(jiān)測人工智能的狀態(tài)和行為,及時發(fā)現(xiàn)和解決人工智能造成的問題和風險。人工智能發(fā)展不可避免地會出現(xiàn)各個層面的安全問題,如果處理不好,不僅會引發(fā)風險,也會降低各界對于人工智能發(fā)展的信心。這需要國家從多個角度進行治理。在技術層面,確保人工智能在算法安全、數(shù)據(jù)安全、網(wǎng)絡安全等方面,避免出現(xiàn)錯誤、偏差、漏洞等問題。在法律層面,建立完善的人工智能法律制度和規(guī)范,明確人工智能的權利和責任,保護個人隱私和知識產(chǎn)權,防止濫用和濫權等問題。在社會層面,加強對人工智能的公眾教育和宣傳,提高公眾對人工智能的認識和理解,培養(yǎng)公眾對人工智能的信任和尊重,促進人工智能與社會各界的和諧共處。

三是要加大對治理的投入,解除人工智能發(fā)展的后顧之憂。人工智能的治理是一個復雜的治理體系,主要是國際和國內(nèi)治理兩個方面。國際治理主要解決使用人工智能的過程中所引發(fā)的國際安全問題,如人工智能在軍事、外交、貿(mào)易等領域的應用可能導致的國家間沖突、競爭、不信任等問題。這些問題需要在全球范圍內(nèi)進行協(xié)商和協(xié)調(diào),建立相應的國際規(guī)范和規(guī)則來約束國家使用人工智能時的行為,保障國際和平與穩(wěn)定。國內(nèi)社會治理則主要解決人工智能的倫理、價值問題,如人工智能對人類的尊嚴、自由、平等等基本權利和價值觀的影響和挑戰(zhàn)。這些問題需要在國家范圍內(nèi)進行立法和監(jiān)管,建立相應的法律制度和規(guī)范來保護個人隱私和知識產(chǎn)權,防止濫用和濫權等問題。同時,也需要在系統(tǒng)開發(fā)和使用之前做好相應的價值評估,確保人工智能符合社會公益和道德標準。在治理機制上要充分尊重各參與主體的技術能力、商業(yè)利益與治理思路,通過充分對話和協(xié)調(diào),形成更加合理的人工智能治理體系。各參與主體應該在平等和相互尊重的基礎上,進行充分的溝通和協(xié)作,形成一個多元、開放、包容的人工智能治理體系。

(作者為上海國際問題研究院公共政策與創(chuàng)新研究所副所長、研究員)

【參考文獻】

①[美]亨利·基辛格等著、胡利平等譯:《人工智能時代與人類未來》,北京:中信出版社,2023年。

②賈開:《人工智能與算法治理研究》,《中國行政管理》,2019年第1期。

③周琪:《高科技領域的競爭正改變大國戰(zhàn)略競爭的主要模式》,《太平洋學報》,2021年第1期。

④S. Matthew Liao, “Ethics of Artificial Intelligence”, New York, Oxford University Press, 2020.

⑤魯傳穎、約翰·馬勒里:《體制復合體理論視角下的人工智能全球治理進程》,《國際觀察》,2018年第4期。

責編/周小梨 美編/王夢雅

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復本微信號獲得授權,轉(zhuǎn)載時務必標明來源及作者,否則追究法律責任。

[責任編輯:周小梨]