原標題:破除人工智能成為法律主體的臆想
人工智能作為現(xiàn)代科技的前沿領(lǐng)域,正在迅速改變我們生活的方方面面。從智能家居到自動駕駛汽車,從智能助手到人形機器人,技術(shù)的進步和應用場景的拓展,激發(fā)了各界對人工智能的追捧。伴隨對人工智能生成作品著作權(quán)歸屬的爭論以及具身智能的發(fā)展,關(guān)于人工智能是否應當被賦予主體地位的問題越來越受到關(guān)注。2024年8月16日,光明日報理論版刊發(fā)的《人工智能成為法律主體不存在理論障礙》一文,提出若干觀點支持賦予人工智能以法律主體地位。對此,筆者有不同認識。筆者認為,“不存在理論障礙”并不意味著就具備正當性、合理性和必要性,如若承認人工智能法律主體地位,那么人工智能就將被視為具有獨立權(quán)利義務和責任的法律實體,這將構(gòu)成對現(xiàn)有法律倫理秩序和傳統(tǒng)的極大沖擊。
理性是成為法律主體的基礎(chǔ),但人工智能不具備獨立理性
理性不僅是道德判斷的基礎(chǔ),也是對行為后果承擔責任的前提。只有具備理性和自主性的個體才能被視為道德主體,具備承擔道德責任的能力。理性通常被定義為一種能夠進行邏輯思維和合理決策的能力,它涉及對復雜問題的分析、判斷和選擇。理性不僅僅是計算能力的體現(xiàn),更包括對自身行為的反思和對環(huán)境的理解。自主性則是指個體能夠在沒有外部干預的情況下,自主做出決策,并承擔決策帶來的后果。理性使得個體能夠進行自我反思和理性決策,從而對其行為和結(jié)果負責。法律是最低程度的道德,法律主體地位的取得也需要主體具備理性,以便對其行為進行合理的法律評價。在某種意義上,理性是成為法律主體的基礎(chǔ)?!度斯ぶ悄艹蔀榉芍黧w不存在理論障礙》一文認為,“法律調(diào)整人工智能產(chǎn)生的相應法律關(guān)系,本質(zhì)上仍然是調(diào)整人與人之間的法律關(guān)系,仍以人的理性為基礎(chǔ)”;既如此,人工智能又有何種可能性和必要性成為法律主體呢?
進言之,人工智能雖然能“理性”地作出決策行為,但這種“理性”實際上是擬制的,源于人類編制的算法和數(shù)據(jù)訓練。人工智能系統(tǒng)的“決策”基于大量的數(shù)據(jù)處理和模式識別,但這些“決策”并不涉及自主的理性判斷。易言之,人工智能的學習過程是通過對歷史數(shù)據(jù)進行優(yōu)化和調(diào)整,而不是通過自主思考或反省形成的。例如,深度學習算法可以通過對海量圖像進行分析來識別物體,但這種識別能力基于統(tǒng)計模型,而不是基于對圖像內(nèi)容的理解。一般而言,理性標準要求主體能夠進行自主的道德判斷,并對其行為后果負責。然而,人工智能系統(tǒng)并不具備這種自主性,它們的行為是由人類設(shè)計和預設(shè)的規(guī)則驅(qū)動的,并沒有真正的自我意識。真正的理性不僅僅是邏輯思維和計算能力的表現(xiàn),更包括對自我意識的控制能力。人工智能系統(tǒng)的“理性”僅僅是程序設(shè)計和數(shù)據(jù)處理的結(jié)果,其“思考”過程實際上是對輸入數(shù)據(jù)的統(tǒng)計分析和優(yōu)化處理,缺乏真正獨立的自我意識和自主決策能力,只是工具意義上完成人類所設(shè)定的任務,不能因其是人類活動的延續(xù)就將人工智能視為具有與人具有同等理性和地位的獨立主體。
從技術(shù)實質(zhì)來看,人工智能的決策高度依賴預設(shè)算法、訓練數(shù)據(jù)以及算力支撐,其系統(tǒng)運行的本質(zhì)仍然是數(shù)學處理的過程和結(jié)果,難言自我意識和獨立理性。即便是進入所謂的“強人工智能”階段,人工智能的思考和決策過程仍然是在預設(shè)的算法和程序的框架之內(nèi),其“理性”也只是體現(xiàn)為一種工具意義上的計算和處理能力,而非真正意義上的自主決策或理性思考。在這層意義上,賦予人工智能獨立的法律主體地位顯然缺乏足夠的倫理基礎(chǔ)。
承擔責任是成為法律主體的客觀要求,但人工智能無法獨立承擔責任
責任涉及對行為結(jié)果的承擔和對錯誤行為的補救。法律和倫理中的責任要求主體能夠?qū)ζ湫袨檫M行控制,并承擔相應的后果。承擔責任需要主體具備對其行為的理解和控制能力,以及對后果進行補償?shù)哪芰ΑX熑蔚臍w屬不僅需要明確的法律框架,還需要具備承擔責任的能力和條件。然而,從人工智能系統(tǒng)的技術(shù)運行邏輯來看,其難以獨立地承擔法律責任,賦予人工智能法律主體地位缺乏應有的法律基礎(chǔ)。
一方面,人工智能并不能真正理解和控制其行為的法律后果。法律責任的核心在于主體能夠意識到其行為對他人的影響,并且具備彌補或糾正錯誤的能力。然而人工智能的行為完全依賴于其算法和程序,且受到訓練數(shù)據(jù)投喂的顯著影響,即使這些系統(tǒng)能夠在特定任務中表現(xiàn)出高效的處理能力,也只是脫離人工的自動化處理而并非真正意義上的自主決策。因此,人工智能系統(tǒng)無法獨立控制其行為,也不能自主預測其行為的后果和責任,自然也無法對其行為后果承擔責任。
另一方面,人工智能不具備承擔責任的財產(chǎn)條件。法律主體獨立的責任能力通常以具有獨立財產(chǎn)為基礎(chǔ)。然而不同于法人通過股東出資等方式獲得獨立財產(chǎn),人工智能的運行并不以財產(chǎn)作為支撐,其設(shè)計和部署雖然會耗費大量資金投入,但也并不要求儲備相應財產(chǎn)以承擔可能之責任。這就導致了一旦人工智能因其決策行為侵權(quán)或違法,也沒有相應的財產(chǎn)承擔相應的賠償責任。即便是按照《人工智能成為法律主體不存在理論障礙》一文的設(shè)計,從制度和實踐上允許人工智能系統(tǒng)取得獨立財產(chǎn),或者為其設(shè)計強制責任保險制度,其也只能承擔賠償損失、罰金等以金錢為內(nèi)容的法律責任,而不能承擔諸如資格罰或自由罰等其他類型的法律責任,由此法律對其約束和威懾作用會顯著不足。
更重要的是,人工智能獨立承擔責任可能會誘致道德風險。人工智能系統(tǒng)的決策和行為是由預先設(shè)定的算法和數(shù)據(jù)所驅(qū)動的,在很大程度上人工智能的行為控制權(quán)實際上是掌握在設(shè)計者和應用者手中的,而不是系統(tǒng)本身能夠獨立控制的。設(shè)計者和應用者在設(shè)計和部署人工智能系統(tǒng)的過程中,可能會因其故意或過失造成人工智能系統(tǒng)的先天缺陷,進而導致他人利益損害甚至利用人工智能實施違法犯罪行為。如果賦予人工智能獨立主體地位并由其獨立承擔責任,很有可能導致人工智能的設(shè)計者和應用者利用這種安排逃避其實際應承擔的法律責任。當獨立承擔責任的人工智能可以成為設(shè)計者和應用者的“防火墻”或“避風港”,那么濫用人工智能的道德風險則難以避免,甚至造成災難性后果。
現(xiàn)有法律和倫理秩序足以應對人工智能帶來的新變化,賦予人工智能法律主體地位無現(xiàn)實必要
賦予人工智能法律主體地位并非僅僅對技術(shù)進步的簡單回應,其涉及深刻的法律、倫理和社會秩序問題。法律因時而變固然是制度進化的內(nèi)在要求,但確保法制的穩(wěn)定和可預期、維護倫理秩序應當是法制變革的底線。一旦人工智能取得法律主體地位,勢必會導致現(xiàn)有法律秩序和倫理秩序所根植的社會關(guān)系結(jié)構(gòu)發(fā)生變化,人工智能作為與自然人、法人和其他組織等既有主體并列的新興主體,其主張權(quán)利或承擔義務與責任,都會造成對現(xiàn)有秩序的沖擊。
從倫理的角度來看,賦予人工智能主體地位將挑戰(zhàn)以人類為中心的傳統(tǒng)觀念。這種觀念認為,人類在倫理上處于中心地位,擁有特殊的道德和法律地位。這種觀念支撐著現(xiàn)代法律和倫理體系的發(fā)展,也構(gòu)成了法律倫理秩序的基礎(chǔ)。賦予人工智能主體地位將會削弱這一倫理基礎(chǔ),弱化人在法律與倫理秩序中的主導地位。事實上,法律主體地位的背后隱含著人類社會對個體的尊重和承認,賦予某一主體以法律地位不僅僅是賦予其權(quán)利,更意味著承認其具有道德和倫理上的意義。人工智能雖然具備高效處理數(shù)據(jù)的能力,但并不具備人類所獨有的倫理感和道德價值觀。若賦予人工智能法律主體地位,將會產(chǎn)生許多倫理難題。例如,人工智能是否應當擁有像人類一樣的權(quán)利?人工智能的“權(quán)利”與人類權(quán)利之間的沖突如何解決?我國發(fā)布的《全球人工智能治理倡議》主張,發(fā)展人工智能應堅持“以人為本”理念,強調(diào)以尊重人類權(quán)益為前提。人工智能的存在與發(fā)展應當服務于人類社會的進步與福祉,而不是創(chuàng)造出與人類平等甚至可能存在競爭關(guān)系的主體。
從法律的角度來看,賦予人工智能主體地位會導致法律規(guī)則體系的復雜化。當前的法律體系是以人類為中心設(shè)計的,各類法律、法規(guī)、判例都基于人類的行為邏輯和社會關(guān)系結(jié)構(gòu)。如果人工智能被視為法律主體,現(xiàn)有法律體系勢必難以應對人工智能作為獨立主體參與社會活動所帶來的復雜情況。人工智能權(quán)利義務的內(nèi)容與邊界、人工智能主觀過錯的認定和責任形式等問題,都超出了現(xiàn)行法律框架的預設(shè)。近年來,歐盟以及其他法域都陸續(xù)出臺人工智能相關(guān)法律,試圖為人工智能的使用制定法律框架。但這些立法嘗試仍然主要關(guān)注人工智能的應用和監(jiān)管,即將人工智能作為工具或客體予以規(guī)制,而非將人工智能本身視為法律主體。在現(xiàn)有法律體系下解釋和完善法律,合理分配人工智能所有者、使用者等相關(guān)主體的權(quán)利義務和責任,亦能因應人工智能時代的法律挑戰(zhàn),完全沒有必要賦予人工智能法律主體地位。
人工智能的飛速發(fā)展使得當前社會不得不認真審視人工智能的角色和地位。人工智能作為一種工具,其作用在于輔助和增強人類能力,而不是取代或成為法律和道德主體。法律回應人工智能革命,不應被科幻主義的盲目和狂熱所遮蔽,沉溺于賦予人工智能法律主體地位的臆想,而是應當回歸科學主義的理性與客觀,將人工智能作為一種工具客體予以有效法律規(guī)制,在促進其服務人類社會發(fā)展的同時保持對技術(shù)的審慎和警惕,以確保技術(shù)的安全和有效應用。
(作者:袁康,系武漢大學網(wǎng)絡治理研究院副院長、教授,湖北省中國特色社會主義理論體系研究中心研究員)
億萬職工的網(wǎng)上家園
關(guān)于我們 |版權(quán)聲明 | 違法和不良信息舉報電話:010-84151598 | 網(wǎng)絡敲詐和有償刪帖舉報電話:010-84151598
Copyright ? 2008-2024 by m.agustinmoreno.com. all rights reserved