www.av视频在线观看,亚洲免费影院第一第二,一级毛片在现观看,久久精品片色免费看网站,日本大香伊蕉在人线国产,奇米精品一区二区三区在线观看,亚洲网站一区

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 中國品牌 > 品牌智庫 > 正文

七部門聯(lián)合發(fā)文——

促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用(政策解讀)

近日,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委、教育部、科技部、工業(yè)和信息化部、公安部、廣電總局公布《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》),自今年8月15日起施行。

國家網(wǎng)信辦有關(guān)負責人表示,出臺《辦法》,旨在促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權(quán)益。

采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展

作為關(guān)鍵通用技術(shù),生成式人工智能對人民福祉、經(jīng)濟發(fā)展、國家安全和戰(zhàn)略競爭均具有重要意義。國家網(wǎng)信辦有關(guān)負責人說,《辦法》提出國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展。

《辦法》第一條開宗明義將“促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用”作為目標,第三條進一步闡明:“國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管”。

“《辦法》立足于促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,除了在總則中明確了國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則外,在‘技術(shù)發(fā)展與治理’一章中專門提出了一系列鼓勵措施。”中國信息通信研究院政策與經(jīng)濟研究所所長辛勇飛說。

第五條規(guī)定,鼓勵生成式人工智能技術(shù)在各行業(yè)、各領(lǐng)域的創(chuàng)新應(yīng)用,生成積極健康、向上向善的優(yōu)質(zhì)內(nèi)容,探索優(yōu)化應(yīng)用場景,構(gòu)建應(yīng)用生態(tài)體系。支持行業(yè)組織、企業(yè)、教育和科研機構(gòu)、公共文化機構(gòu)、有關(guān)專業(yè)機構(gòu)等在生成式人工智能技術(shù)創(chuàng)新、數(shù)據(jù)資源建設(shè)、轉(zhuǎn)化應(yīng)用、風險防范等方面開展協(xié)作。

第六條規(guī)定,鼓勵生成式人工智能算法、框架、芯片及配套軟件平臺等基礎(chǔ)技術(shù)的自主創(chuàng)新,平等互利開展國際交流與合作,參與生成式人工智能相關(guān)國際規(guī)則制定。推動生成式人工智能基礎(chǔ)設(shè)施和公共訓練數(shù)據(jù)資源平臺建設(shè)。促進算力資源協(xié)同共享,提升算力資源利用效能。

劃定底線,推動生成式人工智能向上向善

生成式人工智能技術(shù)的快速發(fā)展,為經(jīng)濟社會發(fā)展帶來新機遇的同時,也產(chǎn)生了傳播虛假信息、侵害個人信息權(quán)益、數(shù)據(jù)安全和偏見歧視等問題。對此,國家網(wǎng)信辦有關(guān)負責人說:“《辦法》堅持目標導向和問題導向,明確了促進生成式人工智能技術(shù)發(fā)展的具體措施,規(guī)定生成式人工智能服務(wù)的基本規(guī)范。”

《辦法》對生成式人工智能服務(wù)提供者和使用者提出了要求:

——應(yīng)當遵守法律、行政法規(guī),尊重社會公德和倫理道德。

《辦法》在總則中就將該內(nèi)容置于重要地位,明確規(guī)定,堅持社會主義核心價值觀,不得生成煽動顛覆國家政權(quán)、推翻社會主義制度,危害國家安全和利益、損害國家形象,煽動分裂國家、破壞國家統(tǒng)一和社會穩(wěn)定,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情,以及虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容。

——尊重知識產(chǎn)權(quán)和他人合法權(quán)益。

生成式人工智能在個人信息的處理過程中,可能存在違法收集、使用個人信息等風險;生成式人工智能的訓練數(shù)據(jù)中如包括他人已發(fā)表并享有著作權(quán)的作品,也可能給知識產(chǎn)權(quán)造成侵害。

為防止侵權(quán)的發(fā)生,《辦法》第四條規(guī)定,尊重知識產(chǎn)權(quán)、商業(yè)道德,保守商業(yè)秘密,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢,實施壟斷和不正當競爭行為;尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人肖像權(quán)、名譽權(quán)、榮譽權(quán)、隱私權(quán)和個人信息權(quán)益。第七條規(guī)定“涉及知識產(chǎn)權(quán)的,不得侵害他人依法享有的知識產(chǎn)權(quán)”等內(nèi)容。

——提高生成內(nèi)容準確性和可靠性。

如何保障生成內(nèi)容的真實性,既是產(chǎn)業(yè)界為進一步擴大生成式人工智能商用范圍需要克服的技術(shù)難題,也是監(jiān)管部門需要重點考慮的問題。對此,《辦法》規(guī)定:“基于服務(wù)類型特點,采取有效措施,提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準確性和可靠性。”

——完善處置措施。

除了規(guī)定相關(guān)實體義務(wù),還需要使生成式人工智能服務(wù)提供者完善處置措施,這樣才能讓“紙上”的規(guī)定落到實處。對此,《辦法》明確:“提供者發(fā)現(xiàn)違法內(nèi)容的,應(yīng)當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓練等措施進行整改,并向有關(guān)主管部門報告。”“提供者應(yīng)當建立健全投訴、舉報機制,設(shè)置便捷的投訴、舉報入口,公布處理流程和反饋時限,及時受理、處理公眾投訴舉報并反饋處理結(jié)果。”

采取更精細化監(jiān)管舉措

生成式人工智能具有此前技術(shù)不具有的諸多特征。針對其技術(shù)特點,《辦法》完善了與創(chuàng)新發(fā)展相適應(yīng)的科學監(jiān)管方式,促使監(jiān)管部門采取更精細化的管理措施,實現(xiàn)技術(shù)創(chuàng)新與監(jiān)管創(chuàng)新的同步演化、協(xié)同共振。

辛勇飛介紹,人工智能算法具有“黑箱”特性,表現(xiàn)為行為不可控、決策機制難以解釋,給人工智能監(jiān)管帶來了一定困難。為此,《辦法》與《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等現(xiàn)有規(guī)范一脈相承,延續(xù)了此前監(jiān)管手段,同時明確了分類分級監(jiān)管的原則,健全了我國人工智能治理體系。一是明確了安全評估與算法備案要求。為有效應(yīng)對算法“黑箱”問題,《辦法》明確,提供具有輿論屬性或者社會動員能力的生成式人工智能服務(wù)的,應(yīng)當按照國家有關(guān)規(guī)定開展安全評估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。二是明確了信息披露要求。《辦法》明確規(guī)定,有關(guān)主管部門依據(jù)職責對生成式人工智能服務(wù)開展監(jiān)督檢查,提供者應(yīng)當依法予以配合,按要求對訓練數(shù)據(jù)來源、規(guī)模、類型、標注規(guī)則、算法機制機理等予以說明,并提供必要的技術(shù)、數(shù)據(jù)等支持和協(xié)助。

針對生成式人工智能的其他技術(shù)特點,《辦法》也作出了規(guī)定。例如,第七條即充分考慮到訓練數(shù)據(jù)的海量性和異質(zhì)性,規(guī)定生成式人工智能服務(wù)提供者應(yīng)當依法開展預(yù)訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動……采取有效措施提高訓練數(shù)據(jù)質(zhì)量,增強訓練數(shù)據(jù)的真實性、準確性、客觀性、多樣性。

此外,《辦法》還針對相關(guān)產(chǎn)業(yè)特點,鼓勵其發(fā)展?!掇k法》規(guī)定:“鼓勵生成式人工智能技術(shù)在各行業(yè)、各領(lǐng)域的創(chuàng)新應(yīng)用,生成積極健康、向上向善的優(yōu)質(zhì)內(nèi)容,探索優(yōu)化應(yīng)用場景,構(gòu)建應(yīng)用生態(tài)體系”,“鼓勵生成式人工智能算法、框架、芯片及配套軟件平臺等基礎(chǔ)技術(shù)的自主創(chuàng)新,平等互利開展國際交流與合作,參與生成式人工智能相關(guān)國際規(guī)則制定”等。

[責任編輯:潘旺旺]