人工智能刑法規制應當繼續堅守人類中心主義根本立場
2024-01-18 09:38:42 來源:法治日報·法治周末
■數字法視界
□曹波
近年來,隨著人工智能技術研發和應用的空前發展,“人工智能+法學”的跨學科研究成為理論界的時興。
如同推動人類社會發展的其他科學技術,人工智能代替人類從事某些人類不愿意或不能夠有效應對的困難情形,將人類從繁瑣紛雜、枯燥單調的工作中解放出來。推動人類社會完成跨越式變革的同時,其內在的不確定性、自動性也衍生出可能嚴重侵害人類法益的現實及潛在風險,客觀上誘發人類對人工智能安全性的極大憂慮,催生以刑法規制人工智能刑事風險的現實需要。
人類中心主義的實質內容
從技術屬性來看,人工智能是人類創造出來幫助人類從繁重的體力、腦力勞動中解放出來的人造物,但與人類創造的其他機械性物件有所區別。
具有深度學習能力的人工智能能夠根據對外部運行環境變化的感知進行自我調整,具備其他任何機械性物件所不具有的“自動性”,這種“自動性”與人類之自由意思及主觀能動性、隨機應變性等智能特質表現出較強的相似性,至少在外部觀念上。
因此,為了解決人工智能“自動性”運行過程中出現難以對研發者、制造者或使用者進行刑事歸責的“責任空白”問題,不少學者堅持應當修正、解構甚至否棄人類中心主義的立場,在人類之外肯定存在其他類型的法律主體,從而賦予人工智能特別是強人工智能以獨立性刑事責任主體地位,肯定人工智能可以實施嚴重侵害人類法益的犯罪行為并因此應當受到刑罰的譴責和制裁。然而,通過輕易否棄人類中心主義的基本立場來解決人工智能刑事風險的主張,仍舊停留在絕對人類中心主義或者舊人類中心主義的階段,混淆了非人類中心主義對人類中心主義批判的對象,實不足取。
人類中心主義是對人的主體性、能動性和創造性的根本體認,是人類創設規則調整社會關系的重要立場,同時是伴隨著人類的發展而不斷完善的。不過,雖說一切以人類的利益和價值為出發點,以人的角度去評價和安排整個世界,但這并不是一成不變的,而是隨著人類的實踐和認知的深入而不斷發展。在不斷反思近代人類中心主義的缺憾與弊端后,新人類中心主義被提出,強調為解決人類所面臨的環境生態危機,應立足于人的利益需要及其滿足來看待人與自然之間的關系。因此,人類必須保護自然資源環境,做到與大自然和諧相處。
在現代社會中,人類中心主義的實質內容并非是追求人的利益和欲望的非理性的滿足,而應是以“人類的整體、永續的健康發展”為中心,以“有利于人類整體的可持續發展”為尺度來衡量自然,來認識和改造自然。強調對人工智能發展過程中可能存在的反制與反噬人類之刑事風險的必要關注,防范人工智能的純粹自動化運行侵損人類法益,這正是出于保障“人類的整體、永續的健康發展”以及“有利于人類整體的可持續發展”的現實考量??隙ㄈ斯ぶ悄芫哂蟹扇烁窕颡毩⑿淌仑熑沃黧w地位,將作為人類人造物的人工智能與人類自身有限度的等同和并列,有削弱人類的主體性地位和人格尊嚴價值之虞。
二元關系中利益歸屬人類
事實上,非人類中心主義對人類中心主義的指責主要是因為完全貫徹人類中心主義,以人類及人類自身的利益為行動的唯一指針,勢必將嚴重破壞包括動物等在內的自然生態環境,進而威脅到人類自身的可持續發展。
非人類中心主義并不是對人類中心主義的根本反對,并非試圖否定人類的地位及利益,而是寄希望建立人與自然和諧共生的模式,讓人類能夠更好地生存和延續。主張修正或擯棄人類中心主義而肯定人工智能獨立犯罪主體資格的見解,從表面上看是在現有人類(包括自然人組合的法人)法律主體資格之外,賦予人工智能法律主體資格,以至于打破人類法律主體資格的一元化格局,因而屬于對人類中心主義的否定或棄守。但是,肯定人工智能獨立犯罪主體資格實則是為了解決人工智能侵損人類利益時出現的歸責疑難,是人類利益被人工智能侵損后法律機制對人類利益的救濟,根本上仍然是維護人類自身的利益,而非保護人工智能的利益,其更多體現的是人類中心主義而不是持論者所謂的非人類中心主義立場。
在人工智能與人類的二元關系中,利益的歸屬者永遠是人類,而不可能是人工智能,畢竟難以想象睿智的人類會創造新的主體來分擔人類本就相當稀少的利益和資源。
眾所周知,法律乃人類制定或認可用于規范人的行為、調整人與人之間社會關系的國家正式制度,刑法通過懲罰嚴重侵害法益的犯罪行為,調整作為個體的自然人或單位與國家、社會之間的關系。作為主體性存在,人類始終是刑法的中心和主體,包括刑法機制在內的所有法律機制存在的根本目的和價值都在于借助積極的激勵性機制或者消極的懲罰性機制,維護并拓展人類利益,最大限度實現人類價值,促進人類全面而自由地發展。
從當前刑法對人類法益的保護種類來看,刑法明確保護關于人類自身的生命權、身體權、民主權、人格權、財產權等種種個人性法益,同時刑法也強調對國家安全、公共安全、經濟秩序、社會秩序等國家性法益和社會性法益進行專門保護,這似乎說明刑法不僅保護人類自身的法益,還保護作為抽象存在的國家和社會的利益。然而,根據刑法理論界的通說理解,國家法益與社會法益等超個人法益并無自身的獨特價值,國家法益與社會法益要獲得刑法的保護必須能夠回歸或者分解到個人法益上,同時刑法保護國家法益與社會法益的規范目的不是保護國家與社會自身的利益,而是希望通過加強國家與社會利益的保護來最終保護個人的利益,亦即刑法保護國家和社會利益是保護個人利益的工具或者中介。
人類中心主義根本立場是普遍共識
為了防止人工智能技術威脅人類利益、侵蝕人類中心主義的根本立場,人工智能研發和應用領域紛紛形成關于貫徹人類中心根本立場的倫理規則。
聯合國教科文組織的世界科學知識與技術倫理委員會(COMEST)公布的《機器人倫理報告》指出,機器人不論能否自主做出決策,或決策的自主程度有多大,人類永遠都是最終的責任承擔者。且機器人越能自主決策,所需承擔責任的人員就越廣,從設計、制造、販賣、使用者,皆有可能承擔責任,并且需要將人性尊嚴、自主、隱私等抽象的價值或原則植入人工智能倫理。
歐盟執行委員會下設的人工智能高階專家組(AI HLEG)發布的《值得信賴的人工智能倫理準則》明確值得信賴的人工智能架構應同時包含合法的(遵守各地區、各國及國際相關法規)、倫理的(遵守倫理原則及價值)、健全的(從技術和社會的角度來看必須避免良善的研發卻意外造成傷害)等三個要素。要求值得信賴的人工智能必須建立在歐盟基本權及國際人權法案所支持的尊重人類自主性、預防傷害、公平、可清楚解釋等實現倫理原則上,強調若要實現人工智能值得信賴,從設計研發、使用、監測及分析、直到改良再研發等,人工智能整個系統的生命周期都需要符合人類主體性及被監控(基于尊重人類自主性原則)、有健全且安全的技術(基于傷害預防原則)、重視隱私及資料管理(基于傷害預防原則)、多元包容、不歧視與公平(基于公平原則)、能促進社會福祉和環境友善(基于傷害預防原則及公平原則)、愿承擔責任(基于公平原則)等七項要求。
由此看來,堅持人類中心主義的根本立場已經成為人工智能界的普遍共識,人工智能研發與應用必須以人為本,以追求并擴大人類福祉為宗旨,而這種立場自然也應當成為人工智能刑法規制所必須堅守的。
人類中心主義根本立場是當前人類所建構的各種規范性制度取得最終實效的基本保障和內在緣由,至于主張棄守人類中心主義以賦予人工智能以獨立刑事責任主體地位,進而實現對人工智能刑事風險的刑法規制的理論主張,在相當程度上弱化人類的主體性地位和價值,是對人類價值與人格尊嚴的不當(部分地)放棄,顯然得不償失,實非明智之舉。
人工智能刑法規制是通過對人工智能研發和應用各個階段可能出現侵犯人類利益的各類風險進行識別,并組織適當且科學的風險應對機制予以消除,防止人工智能的內在風險客觀現實化為對人類利益的真正損害,這種強調人類利益保護的主張正是人類中心主義根本立場的現實寫照,也是人類中心主義根本立場的基本要求,需要得到繼續堅守并在人工智能刑法規制的具體方案設計中得到應有的展現。
(作者系貴州大學法學院副教授、碩士生導師)