【摘要】通用人工智能的開發(fā)和應(yīng)用無疑都展現(xiàn)出了巨大的潛力,但由于其內(nèi)在復(fù)雜性,以及與其相關(guān)的不確定性,通用人工智能在法律界定和監(jiān)管方面仍面臨著挑戰(zhàn)。在推動技術(shù)進(jìn)步的同時,需強化跨學(xué)科合作,以充分發(fā)掘通用人工智能和心理學(xué)的互補性;在明確界定通用人工智能責(zé)任歸屬的基礎(chǔ)上,提高通用人工智能透明度和可解釋性,并完善數(shù)據(jù)處理和保護(hù)規(guī)定,與此同時,提倡通用人工智能在心理學(xué)實踐中的倫理應(yīng)用。這些措施將有助于通用人工智能在心理學(xué)領(lǐng)域的健康、安全和高效應(yīng)用。
【關(guān)鍵詞】通用人工智能 心理學(xué) 法律 挑戰(zhàn)
【中圖分類號】TP29 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2023.14.008
【作者簡介】朱廷劭,中國科學(xué)院心理研究所研究員、博導(dǎo),中國科學(xué)院行為科學(xué)重點實驗室副主任。研究方向為大數(shù)據(jù)心理學(xué)、 網(wǎng)絡(luò)挖掘、機器學(xué)習(xí)。主要著作有《大數(shù)據(jù)時代的心理學(xué)研究及應(yīng)用》等。
人工智能(Artificial Intelligence,簡稱AI)這一概念誕生于1956年,由約翰·麥卡錫(John McCarthy)及其同仁首次提出,其核心思想是通過計算機系統(tǒng)模擬人類智能的過程。這一領(lǐng)域的發(fā)展歷程跨越了幾十年,期間有關(guān)AI的定義層出不窮,各種解讀和理解不斷涌現(xiàn)。然而,最被廣泛接受的定義依舊來自麥卡錫,他在2004年正式將AI定義為“制造智能機器,特別是智能計算機程序的科學(xué)和工程”。這一定義不僅揭示了AI的本質(zhì),也指出了其發(fā)展方向。近年來,人工智能領(lǐng)域得到了迅猛發(fā)展,分化出了眾多子領(lǐng)域,這些子領(lǐng)域的研究成果已經(jīng)被廣泛應(yīng)用于各個行業(yè)和領(lǐng)域。其中,通用人工智能(Artificial General Intelligence,亦稱強人工智能,簡稱AGI)這一概念引起了越來越多的關(guān)注。AGI與傳統(tǒng)的AI有著顯著的區(qū)別,它被設(shè)計為具有高度自主性的系統(tǒng),其目標(biāo)是在大多數(shù)產(chǎn)生經(jīng)濟價值的工作領(lǐng)域中超越人類的能力。AGI通常具有強大的理解、學(xué)習(xí)、適應(yīng)和實施知識的能力,這使得它能夠展現(xiàn)出與人類相似甚至在一定程度上超出人類的認(rèn)知能力。AGI的出現(xiàn)為人類的生產(chǎn)和精神活動帶來了前所未有的可能性,同時也帶來了一系列的挑戰(zhàn)。這些挑戰(zhàn)不僅涉及技術(shù)層面,更涉及倫理、法律等多個領(lǐng)域。因此,深入探究AGI,理解其在心理學(xué)領(lǐng)域中的潛在應(yīng)用,以及伴隨其發(fā)展而來的道德和法律風(fēng)險,就顯得至關(guān)重要。這不僅需要我們從技術(shù)角度出發(fā),更需要我們從心理學(xué)、倫理學(xué)、法學(xué)等多個角度進(jìn)行深入研究和探討。
AGI概述及其法規(guī)要求
艾倫·圖靈(Alan Turing)曾猜想,如果一臺機器能夠模擬出人類的認(rèn)知,那么我們就可以稱之為擁有智能。AGI的出現(xiàn)正是在追求這樣一種智能,即一種具有人類級別智能的、能夠理解和執(zhí)行任何認(rèn)知任務(wù)的系統(tǒng),而不僅僅局限于特定的、有限的任務(wù)(Bhatti et al., 2023)。AGI的這一特性與大多數(shù)現(xiàn)有的人工智能系統(tǒng)形成鮮明對比,后者通常被設(shè)計和訓(xùn)練來執(zhí)行特定的任務(wù),如圖像識別或自然語言處理。具體而言,通用人工智能的設(shè)計理念,就是為了克服傳統(tǒng)AI在未經(jīng)特定訓(xùn)練的新任務(wù)或環(huán)境中性能可能會大打折扣的問題,以實現(xiàn)在任何類型的任務(wù)上都能理解和學(xué)習(xí)。近年來,深度學(xué)習(xí)和圖卷積神經(jīng)網(wǎng)絡(luò)等先進(jìn)的技術(shù)在處理非歐幾里得空間數(shù)據(jù)等復(fù)雜任務(wù)中顯示出其潛力(Bhatti et al., 2023),這標(biāo)志著AGI的發(fā)展已經(jīng)取得了顯著的進(jìn)步。然而,AGI仍面臨許多挑戰(zhàn),如決策過程的透明性和可解釋性,以及在無人監(jiān)督的情況下保證其行為的道德性和合法性。這些問題都在提示我們,AGI雖然是人工智能發(fā)展的一個重要方向,但其成為一種能夠在任何智能任務(wù)上表現(xiàn)出人類級別的性能的系統(tǒng),仍有著漫長的路要走。
在使用AGI或任何類型的AI的過程中,我們都需要嚴(yán)格遵循現(xiàn)有的倫理準(zhǔn)則和法規(guī)要求,確保其在服務(wù)人類的同時,不會侵犯個人的隱私,保證數(shù)據(jù)安全,并維持公平性和透明性(Azam et al., 2023)。例如,歐盟出臺《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,簡稱GDPR)加強對個人數(shù)據(jù)的保護(hù),包括數(shù)據(jù)收集、存儲、使用和傳輸?shù)确矫娴囊?guī)定(Meszaros et al., 2022)。中國則實施《中華人民共和國個人信息保護(hù)法》等法律法規(guī),明確數(shù)據(jù)主體的權(quán)利和數(shù)據(jù)處理者的義務(wù)(Ella, 2022)。除了法律要求,研究者同樣需要遵循一系列的倫理準(zhǔn)則,以確保AGI的使用不會對個人和社會產(chǎn)生不公平或不合理的影響。這些準(zhǔn)則包括尊重個人的自主權(quán)、保護(hù)個人的隱私和數(shù)據(jù)安全,以及確保AGI的決策過程的公平性和透明性(Meszaros et al., 2022)。在研究過程中,研究者需要確保研究對象的知情同意,同時在任何的研究報告或文獻(xiàn)中,都不能泄露用戶的個人隱私信息,以及有可能暴露個人身份的重要線索。
綜上所述,無論在歐洲還是在中國,通用人工智能的使用都需要遵循一系列的倫理準(zhǔn)則和法規(guī)要求。這些準(zhǔn)則和要求旨在保護(hù)個人的隱私和數(shù)據(jù)安全,同時也確保人工智能的使用不會對個人和社會造成危害。這正是我們在推進(jìn)人工智能技術(shù)發(fā)展的同時,必須遵循的道德和法律原則。
AGI在心理學(xué)領(lǐng)域的潛在作用
通用人工智能在心理學(xué)的研究和實踐中的潛能是深遠(yuǎn)且多元的。AGI的核心目標(biāo)在于模擬人類的智能和適應(yīng)性,這使得AGI在理解和模擬人類心理過程方面具有無可比擬的優(yōu)勢(Abdüsselam, 2023)。在心理學(xué)的研究領(lǐng)域,AGI的應(yīng)用可以深化我們對復(fù)雜人類認(rèn)知過程的理解。例如,AGI可以被用作一個強大的工具,模擬人類的決策過程,從而揭示人類是如何在面臨不確定性的情況下作出決策的(Wolff, 2023)。這種模擬不僅可以幫助我們理解決策過程的機制,還可以揭示人類如何處理信息、評估風(fēng)險,以及如何在多種可能的選擇中作出最佳決策。此外,AGI還可以模擬人類的學(xué)習(xí)過程,以研究人們是如何從經(jīng)驗中學(xué)習(xí)和適應(yīng)新的環(huán)境的(Abdüsselam, 2023)。這種模擬可以幫助我們理解學(xué)習(xí)的機制,包括記憶的形成、知識的獲取、技能的發(fā)展等。
在心理學(xué)的實踐領(lǐng)域,AGI也有可能發(fā)揮重要作用。例如,AGI可以用來開發(fā)更有效的心理治療方法。通過模擬人類的心理過程,AGI可以幫助心理治療師更好地理解他們面對的患者,從而提供更個性化和有效的治療(Irshad et al., 2022)。這種模擬可以幫助治療師更好地理解患者的心理狀態(tài),包括他們的情緒、思想、行為模式等。此外,一些基于AGI的聊天機器人已經(jīng)被應(yīng)用于心理咨詢,幫助人們處理焦慮和壓力等問題(Gündoar and Niauronis, 2023)。這些機器人可以提供及時的反饋,幫助人們更好地管理情緒和應(yīng)對壓力。
AGI還可以用來開發(fā)新的心理評估工具。通過分析人們的面部表情、語音和文本等信息,AGI可以識別出人們的情緒狀態(tài),這對于理解和模擬人類的心理過程具有重要作用(Zhao et al., 2022)。此外,利用AGI分析和解釋復(fù)雜的行為數(shù)據(jù),能夠提供更準(zhǔn)確和詳細(xì)的心理評估(Mikkelsen et al., 2023)。這種評估可以幫助我們更好地理解人類的行為模式,包括他們的情緒反應(yīng)、社交行為、決策過程等。
總體來說,AGI在心理學(xué)的潛在作用是廣泛的,從基礎(chǔ)研究到臨床實踐,都有可能受益于AGI的發(fā)展。但正如前述,盡管AGI的潛力巨大,但在實際應(yīng)用中,我們還需要考慮到倫理和法律問題,如數(shù)據(jù)共享和隱私保護(hù)。這些問題需要我們在推動AGI應(yīng)用的同時,保護(hù)個人的隱私和權(quán)益,確保AGI的發(fā)展在一個公平、公正和透明的環(huán)境中進(jìn)行。
AGI的法律限制和面臨的挑戰(zhàn)
盡管世界各國對于通用人工智能的法律限制和監(jiān)管體系多種多樣,但我們可以發(fā)現(xiàn)一種普遍趨勢,即法律體系在不斷強調(diào)個人隱私保護(hù)、數(shù)據(jù)安全,以及保障AGI使用的公平性和透明性這些核心原則。然而,由于AGI的內(nèi)在復(fù)雜性,以及與其相關(guān)的不確定性,對AGI的法律界定和對其進(jìn)行有效監(jiān)管仍面臨著挑戰(zhàn)。
首先,對于如何明確界定AGI的責(zé)任承擔(dān),法律界尚未達(dá)成統(tǒng)一的共識。傳統(tǒng)法律中的責(zé)任歸屬大多是基于個體行為,而AGI作為一個無法進(jìn)行主觀認(rèn)知的機器實體,其行為如何納入現(xiàn)有的責(zé)任框架,無疑是一大挑戰(zhàn)。其次,如何確保AGI的決策過程具備透明性,也是一個有待解決的問題。由于AGI的決策?;趶?fù)雜的算法和海量數(shù)據(jù),其過程往往難以解析和理解。因此,如何確保AGI決策的可審計性和可解釋性,是法律面臨的重要問題。最后,如何合法、安全地處理跨境數(shù)據(jù)傳輸是一個至關(guān)重要的問題。AGI的運作有賴于全球范圍內(nèi)的數(shù)據(jù)輸入,因此,對于跨境數(shù)據(jù)的傳輸、存儲和使用等方面,都需要明確的法律指引。
就當(dāng)前而言,諸如GDPR和《中華人民共和國個人信息保護(hù)法》等法律條例都對數(shù)據(jù)處理者設(shè)定嚴(yán)格的法律責(zé)任,要求他們必須確保個人數(shù)據(jù)的安全和私密性,并且只能在明確、合法的目的下進(jìn)行數(shù)據(jù)的收集和使用。這種法規(guī)對AGI的運作和發(fā)展提出了重大的挑戰(zhàn),因為AGI的功能發(fā)揮基本上依賴于對大量數(shù)據(jù)的處理和學(xué)習(xí),這意味著AGI必須在嚴(yán)格遵守數(shù)據(jù)保護(hù)法規(guī)的前提下,才能進(jìn)行有效的數(shù)據(jù)處理。值得一提的是,這些法律限制不僅關(guān)乎數(shù)據(jù)的處理,也涉及到AGI的具體應(yīng)用,因此,需要進(jìn)一步的法律和道德層面的探討。
AGI應(yīng)用于心理學(xué)領(lǐng)域的相關(guān)建議
通用人工智能在心理學(xué)領(lǐng)域的應(yīng)用既充滿機遇,也面臨挑戰(zhàn)。在推動技術(shù)進(jìn)步的同時,我們要高度重視個人權(quán)益的保護(hù)以及公眾福祉的維護(hù)。通過對通用人工智能技術(shù)在心理學(xué)領(lǐng)域應(yīng)用的相關(guān)問題進(jìn)行深入探討,筆者提出以下建議。
建立和增強跨學(xué)科合作。隨著通用人工智能技術(shù)的日益發(fā)展和深化,其應(yīng)用領(lǐng)域不斷擴展,心理學(xué)自然也囊括其中。但是,這種科技的前沿和復(fù)雜性使得單一學(xué)科難以全面深入地研究和應(yīng)用AGI。例如,心理學(xué)家通常對AGI背后的計算機科學(xué)理念和技術(shù)不夠熟悉,而計算機科學(xué)家則可能缺乏對人類心理過程和行為的深入理解。此外,AGI的使用過程中可能涉及一系列法律問題,包括但不限于數(shù)據(jù)保護(hù)、隱私權(quán)以及責(zé)任歸屬等,需要法律專業(yè)人士的介入和指導(dǎo)。這一點在心理學(xué)領(lǐng)域的AGI應(yīng)用中更為重要,由于涉及到大量的敏感個人數(shù)據(jù),如心理咨詢記錄、診斷信息、治療方案等,因此,有必要建立一種跨學(xué)科的合作機制,鼓勵和引導(dǎo)心理學(xué)家、計算機科學(xué)家和法律專業(yè)人士的全面參與。
建立和增強跨學(xué)科合作的預(yù)期目標(biāo)是將各個領(lǐng)域的專業(yè)知識和技能有機結(jié)合,從而更好地研究和應(yīng)用AGI在心理學(xué)領(lǐng)域的可能性。心理學(xué)家可以通過他們對人類心理過程和行為的深入理解來幫助計算機科學(xué)家構(gòu)建更為符合實際的模型和算法。例如,心理學(xué)可以提供有關(guān)心理疾病的診斷和治療方法,以及人類情緒、動機和行為等方面的研究成果,用以優(yōu)化AGI的心理治療程序。計算機科學(xué)家則可以利用這些理解來改善AGI的設(shè)計和運行,使其能夠更有效地處理和利用心理學(xué)數(shù)據(jù),從而提高其在心理治療中的應(yīng)用效果。與此同時,法律專業(yè)人士可以為這種合作提供法律建議,解釋相關(guān)法規(guī),預(yù)防法律風(fēng)險,以及在出現(xiàn)法律問題時提供解決方案。這樣的跨學(xué)科合作不僅能夠推動AGI在心理學(xué)領(lǐng)域的研究和應(yīng)用,也有助于預(yù)防和解決可能出現(xiàn)的法律問題,從而確保AGI在法律上的合規(guī)性和在實際應(yīng)用中的有效性。
明確界定AGI責(zé)任歸屬。隨著通用人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,其在諸如心理咨詢等領(lǐng)域引發(fā)的責(zé)任歸屬問題也越來越突出。具體來說,由于AGI系統(tǒng)具有自我學(xué)習(xí)和自我決策的能力,因此,在AGI的行為所導(dǎo)致的問題上,傳統(tǒng)“責(zé)任歸屬于制造商或用戶”的歸責(zé)模式可能無法完全適用。例如,如果一個AGI系統(tǒng)在提供心理咨詢建議的過程中犯了錯誤,是由制造商、程序員,還是用戶承擔(dān)責(zé)任?在一些復(fù)雜的情況下,比如,AGI系統(tǒng)基于用戶的輸入和環(huán)境的反饋進(jìn)行自我學(xué)習(xí)與調(diào)整,進(jìn)而導(dǎo)致問題的發(fā)生,該如何確定責(zé)任?這些都是目前面臨的挑戰(zhàn)。因此,我們需要建立一個新的、明確的責(zé)任框架,來應(yīng)對AGI在心理咨詢等領(lǐng)域應(yīng)用中可能出現(xiàn)的問題。
界定AGI開發(fā)和使用過程中的責(zé)任歸屬問題的預(yù)期目標(biāo),是確立一個盡可能明確的責(zé)任框架來幫助我們更好地理解和管理AGI的使用,特別是在諸如心理咨詢等涉及個人隱私和安全的領(lǐng)域。首先,這個責(zé)任框架可以為AGI制造商、程序員和用戶提供明確的指導(dǎo),即在何種情況下需要承擔(dān)責(zé)任,從而可以更好地遵守法規(guī),并預(yù)防和管理風(fēng)險。其次,明確的責(zé)任框架也有利于保護(hù)消費者和公眾的權(quán)益。如果AGI的行為導(dǎo)致問題的發(fā)生,消費者和公眾應(yīng)該有權(quán)知道責(zé)任由誰承擔(dān),并獲得相應(yīng)的賠償。此外,明確的責(zé)任框架也有助于推動AGI的健康發(fā)展,因為制造商和程序員會更加重視AGI的設(shè)計和測試,以避免可能的責(zé)任風(fēng)險。最后,為了實現(xiàn)上述目標(biāo),我們可能需要對現(xiàn)有的法律框架進(jìn)行調(diào)整,以適應(yīng)AGI的特性和能力??赡艿慕鉀Q方案包括設(shè)立特殊的法律實體來管理AGI的責(zé)任問題,或者設(shè)定一種新的責(zé)任歸屬模式,如共享責(zé)任。這些方案都亟需聯(lián)合立法機構(gòu)及各界人士進(jìn)行深入的討論研究。
提高AGI透明度和可解釋性。通用人工智能的決策過程通?;趶?fù)雜的深度學(xué)習(xí)模型,如神經(jīng)網(wǎng)絡(luò)等,并利用大規(guī)模數(shù)據(jù)進(jìn)行訓(xùn)練。這些深度學(xué)習(xí)模型的一個顯著特征是“黑箱”,即其決策過程往往難以理解和解釋。比如,當(dāng)AGI在提供心理咨詢服務(wù)時,它可能根據(jù)患者的表述和歷史信息作出診斷和治療建議,但具體的決策過程(例如,AGI如何理解和解釋患者的表述、如何基于歷史信息作出決策等),通常難以追蹤和解釋。這種不透明性和不可解釋性不僅可能導(dǎo)致誤解和疑慮,也會不可避免地帶來法律和倫理問題。如果無法理解和解釋AGI的決策過程,那么確定責(zé)任可能會非常困難。因此,提高AGI的透明度和可解釋性是非常必要的。
提高AGI的透明度和可解釋性的預(yù)期目的是更好地理解與管理其決策過程,從而增加人們對AGI的信任,并降低可能的法律風(fēng)險。具體來說,如果我們能夠理解AGI是如何作出決策的,那么當(dāng)其決策出現(xiàn)問題時,我們就可以更容易地找出問題的原因。此外,透明和可解釋的決策過程也能夠增加人們對AGI的信任,人們可以更好地理解AGI是如何工作的,而不是簡單地接受其決策結(jié)果。為了實現(xiàn)這一目標(biāo),未來應(yīng)當(dāng)致力于研發(fā)新的工具和技術(shù),譬如,可解釋的機器學(xué)習(xí)算法,或者對AGI決策過程的可視化工具。這些工具和技術(shù)可以幫助人們理解AGI是如何作出決策的,從而增加人們對AGI的信任,并降低由于不透明決策過程帶來的法律風(fēng)險。
完善數(shù)據(jù)處理和保護(hù)規(guī)定。通用人工智能的運作依賴于大量的數(shù)據(jù)輸入,因此,需要制定嚴(yán)格的數(shù)據(jù)處理和保護(hù)規(guī)定。在數(shù)據(jù)收集、存儲和使用的過程中,都必須尊重和保護(hù)個人隱私。此外,數(shù)據(jù)的使用必須在明確且合法的目的下進(jìn)行,不能濫用個人數(shù)據(jù)。為了實現(xiàn)這一目標(biāo),一方面,需要借鑒和采納現(xiàn)有的數(shù)據(jù)保護(hù)法規(guī),例如,GDPR和《中華人民共和國個人信息保護(hù)法》;另一方面,雖然GDPR和《中華人民共和國個人信息保護(hù)法》等法律條例為數(shù)據(jù)的保護(hù)和使用提供了基本的法律框架,但它們并未針對AGI的特殊性進(jìn)行詳細(xì)規(guī)定。AGI的功能及其在心理學(xué)領(lǐng)域的應(yīng)用,使其對數(shù)據(jù)的需求和處理方式產(chǎn)生了特異性,這種特異性在現(xiàn)有的法律法規(guī)中并未得到充分的反映。比如,AGI在進(jìn)行學(xué)習(xí)和優(yōu)化過程中,可能需要處理大量的個人心理健康數(shù)據(jù),這些數(shù)據(jù)往往具有極高的敏感性和隱私性。而現(xiàn)行的GDPR和《中華人民共和國個人信息保護(hù)法》均未詳細(xì)規(guī)定如何處理此類高度敏感的信息,以及如何在保護(hù)隱私的同時,確保AGI的有效學(xué)習(xí)和優(yōu)化。此外,AGI的決策過程通?;趶?fù)雜的算法和模型,這意味著它的數(shù)據(jù)處理過程可能難以理解和解釋,這在現(xiàn)有的法律框架下也存在明顯的挑戰(zhàn)。譬如,GDPR中的“自動決策權(quán)”規(guī)定,個人有權(quán)不受完全基于自動化處理的決策的影響,然而,如何定義和執(zhí)行這一規(guī)定在AGI的應(yīng)用中,尤其是在心理學(xué)應(yīng)用中,仍然存在很大的不確定性和困難。
鑒于此,世界各國需要研究和制定一套針對AGI的數(shù)據(jù)處理和保護(hù)規(guī)定。這既需要深入理解AGI的運作機制和數(shù)據(jù)需求,又需要充分考慮數(shù)據(jù)主體的權(quán)益和社會公眾的利益。在該過程中,我們可以借鑒現(xiàn)行的數(shù)據(jù)保護(hù)法規(guī),但也不得不考慮對這些法規(guī)進(jìn)行擴展和調(diào)整,以適應(yīng)AGI的特殊性。具體來說,我們可能需要對如何處理高度敏感的個人心理健康數(shù)據(jù)進(jìn)行明確規(guī)定,以及如何在復(fù)雜的AGI決策過程中確保透明度和可解釋性進(jìn)行詳細(xì)的指導(dǎo)。這樣的規(guī)定不僅可以幫助我們保護(hù)個人隱私,也可以為AGI在心理學(xué)領(lǐng)域的應(yīng)用提供法律依據(jù)和指引。
提倡AGI在心理學(xué)實踐中的倫理應(yīng)用。隨著人工智能技術(shù)的發(fā)展,AGI將不可避免地應(yīng)用到心理學(xué)實踐環(huán)節(jié)中。例如,一些基于AGI的心理治療系統(tǒng)可能在未來能夠高效、自動地為個體提供心理咨詢服務(wù)甚至是心理治療方案。然而,AGI系統(tǒng)的決策可能會受到訓(xùn)練數(shù)據(jù)的影響,如果訓(xùn)練數(shù)據(jù)存在偏見,那么AGI系統(tǒng)的決策也必然存在偏見。此外,由于AGI系統(tǒng)的決策過程是自動化的,因此,可能缺乏對患者自主性的尊重,以及對專業(yè)醫(yī)療和心理學(xué)標(biāo)準(zhǔn)的遵守。
提倡AGI倫理安全的預(yù)期目的是更好地保護(hù)患者的權(quán)益,預(yù)防倫理問題,以及提高AGI在心理學(xué)實踐中的應(yīng)用質(zhì)量。具體來說,我們需要確保AGI系統(tǒng)的決策是在尊重患者自主性的基礎(chǔ)上進(jìn)行的。這意味著AGI系統(tǒng)在提供心理咨詢和治療等服務(wù)時應(yīng)該充分理解和尊重患者的意愿,如果患者不希望接受某種治療,那么AGI系統(tǒng)應(yīng)該及時識別并終止該方案。此外,我們也需要確保AGI系統(tǒng)的決策是基于最新的科學(xué)證據(jù),并且符合專業(yè)的醫(yī)療和心理學(xué)標(biāo)準(zhǔn)。這意味著AGI系統(tǒng)在提供心理咨詢和治療服務(wù)時,應(yīng)該根據(jù)最新的研究成果和臨床實踐標(biāo)準(zhǔn),而不是僅僅依賴于訓(xùn)練數(shù)據(jù)。為了達(dá)到這一預(yù)期,亟需建立一套具體的倫理準(zhǔn)則和審查機制,以監(jiān)督AGI在心理學(xué)實踐中的應(yīng)用。這套倫理準(zhǔn)則和審查機制應(yīng)該涵蓋AGI系統(tǒng)的設(shè)計、開發(fā)和應(yīng)用各個階段,并且應(yīng)該由專業(yè)人士進(jìn)行監(jiān)督和審查,以確保AGI系統(tǒng)的決策真正符合倫理準(zhǔn)則和醫(yī)療標(biāo)準(zhǔn)。
參考文獻(xiàn)
A. Veronese, A. Silveira and A. N. L. Espiñeira Lemos, 2019, "Artificial Intelligence, Digital Single Market and the Proposal of a Right to Fair and Reasonable Inferences: A Legal Issue Between Ethics and Techniques," UNIO – EU Law Journal, 5(2).
A. Gündo?ar and S. Niauronis, 2023, "An Overview of Potential Risks of Artificial General Intelligence Robots," Applied Scientific Research, (2)1.
N. Azam et al., 2023, "Data Privacy Threat Modelling for Autonomous Systems: A Survey From the GDPR's Perspective," IEEE Transactions on Big Data, 9(2).
U. A. Bhatti et al., 2023, "Deep Learning with Graph Convolutional Networks: An Overview and Latest Applications in Computational Intelligence," International Journal of Intelligent Systems, 28 February.
G. Bryce, 2022, "Privacy Without Persons: A Buddhist Critique of Surveillance Capitalism," AI and Ethics, 15 August.
D. A. Dourado and F. M. A. Aith, 2022, "The Regulation of Artificial Intelligence for Health in Brazil Begins with the General Personal Data Protection Law," Revista De Saúde Pública, 56.
G. Ella, 2022, "Ethical Regulation of Artificial Intelligence as a Factor of Financial and Banking Sector Security: China's Experience," Revista De Saúde Pública, 2.
F. Caccavale et al., 2022, To Be fAIr: Ethical and Fair Application of Artificial Intelligence in Virtual Laboratories, SEFI 50th Annual Conference of The European Society for Engineering Education, "Towards a New Future in Engineering Education, New Scenarios that European Alliances of Tech Universities Open up," Barcelona: Universitat Politècnica de Catalunya, pp. 1022-1030.
I. Kim et al., 2022, "Application of Artificial Intelligence in Pathology: Trends and Challenges," Diagnostics, 12(11).
J. G. Wolff, 2023, "The SP Theory of Intelligence, and Its Realisation in the SP Computer Model, as a Foundation for the Development of Artificial General Intelligence," Analytics, 2(1).
J. G. Mikkelsen et al., 2023, "Patient Perspectives on Data Sharing Regarding Implementing and Using Artificial Intelligence in General Practice - a Qualitative Study," BMC Health Services Research, 23(1).
Dubiński, 2022, "Evidence from Artificial Intelligence in General Administrative Procedure," Przegl?d Prawniczy Uniwersytetu im. Adama Mickiewicza, 14.
J. McCarthy, "What is AI? / Basic Questions," http://jmc.stanford.edu/artificial-intelligence/what-is-ai/index.html.
J. Meszaros et al., 2022, "The Future Regulation of Artificial Intelligence Systems in Healthcare Services and Medical Research in the European Union," Frontiers in Genetics, 13.
M. S. Abdüsselam, 2023, "Qualitative Data Analysis in the Age of Artificial General Intelligence," Revista De Saúde Pública, 7(4).
N. K. Sørensen and U. Steen, 2022, "The Fundraiser's Transfer of Personal Data from the European Union to the United States in Context of Crowdfunding Activities," Nordic Journal of Commercial Law, 2.
P. A. Utami, Z. Zulfan and B. Bahreisy, 2022, "Enforcement of Restrictions on Community Activities (PPKM) for the Emergency Period of Covid-19 (Certificate of Vaccination Identification with Artificial Intelligence) in Terms of Indonesia's Criminal Justice System," Proceedings of Malikussaleh International Conference on Law, Legal Studies and Social Science (MICoLLS), 2.
S. Irshad, S. Azmi and N. Begum, 2022, "Uses of Artificial Intelligence in Psychology," Journal of Health and Medical Sciences, 5(4).
A. M. Turing, 2009, "Computing Machinery and Intelligence," In R. Epstein, G. Roberts and G. Beber, (eds.), Parsing the Turing Test: Philosophical and Methodological Issues in the Quest for the Thinking Computer, Springer Netherlands, pp. 23-65.
T. Voloshanivska, L. Yankova and O. Tarasenko, 2022, "About Data Protection Standards and Intellectual Property Regulation in the Digital Economy: Key Issues for Ukraine," Baltic Journal of Economic Studies, 8(4).
T. Zhang and C. Fu, 2022, "Application of Improved VMD-LSTM Model in Sports Artificial Intelligence," Computational Intelligence and Neuroscience, 14 July; R. Woroniecki and M. L. Moritz, 2023a, "A Critical Reflection on Analytics and Artificial Intelligence Based Analytics in Hospitality and Tourism Management Research," International Journal of Contemporary Hospitality Management, (35)8.
R. Woroniecki and M. L. Moritz, 2023, "Investigating the Human Spirit and Spirituality in Pediatric Patients with Kidney Disease," Front Pediatr, 11.
J. Zhao et al., 2022, "Cognitive Psychology-based Artificial Intelligence Review," Front Neurosci, 16.
An Analysis of the Application of AGI in the Field of Psychology
Zhu Tingshao
Abstract: With great development and application potentiality, AGI still faces challenges from legal definition and supervision in law enforcement due to its inherent complexity and related uncertainty. To promote its application, interdisciplinary collaboration needs to be strengthened to fully explore the complementarity between AGI and psychology. Based on a well-defined responsibility of AGI, such measures should be adopted to improve its transparency and interpretability, to formulate strict data processing and protection regulations for its healthy, safe and efficient application in psychology.
Keywords: AGI, psychology, law, challenge