荷蘭巴西AI判案惹爭議,AI審判何去何從

2024-11-21 14:57:31  來源:《法制與新聞》雜志

最高人民法院院長張軍指出:“人工智能的發(fā)展給人類社會帶來廣泛而深刻的影響,這些影響既以新型案件的形式投射到司法審判工作中,也為司法審判工作提供了新的科技支撐。”

文/何能高 本刊記者 王衛(wèi)

今年8月,一名荷蘭法官運用ChatGPT提供的關于太陽能電池板的使用壽命和電能價格的回答作為判決依據,引起了眾多專家的關注,也引發(fā)了沸沸揚揚的爭議,AI審判到底何去何從,引發(fā)各界思考。

將 AI 引入司法活動的負面案例時有發(fā)生,AI 的廣泛使用面臨重大風險挑戰(zhàn)。(圖 / VCG)

荷蘭:ChatGPT能精準算出電池板壽命嗎

近年來,AI在諸多行業(yè)和領域深受追捧;一些國家甚至將其視為高新技術的新挑戰(zhàn),國家發(fā)展的新賽道。杭州電子科技大學教授孔萬增認為:“以人機、雙向、價值對齊的形式去構建價值驅動的新人工智能范式,是AI界關注的新賽道?!痹谥T多人工智能中,ChatGPT更算得上是AI的佼佼者。發(fā)達國家的法院將其廣泛作為司法審判的智能助手;然而,荷蘭法官利用ChatGPT作為判決的重要工具和依據,卻讓不少人對于新技術的沖擊產生了更多擔心與爭議。

據荷蘭新聞網站“DutchNews”報道,奈梅亨的一名法官承認,其在審判案件時使用ChatGPT收集重要信息。該案涉及兩名房屋相鄰的房主,被告將房子加蓋一層,增加了建筑的高度,作為被告的鄰居,原告認為此舉影響其太陽能電池板的發(fā)電效率,故向當地法院起訴,要求被告賠償其經濟損失。

本案爭議的焦點在于被告的行為是否會影響到原告太陽能電池板的發(fā)電效率;如果存在客觀影響,那么應當如何來計算原告的實際經濟損失?

對此爭議焦點,要科學、準確地作出裁判,有相當的難度。相信科學技術的荷蘭法官認為,人工智能在此方面的計算,比普通人的計算更為精準,遂使用ChatGPT計算太陽能電池板的平均壽命以及平均電價,并將其寫入判決。法院判決書公開承認:“法官部分基于ChatGPT估計:從2009年開始,太陽能電池板的平均壽命在25到30年。對于本案,我們將其定為27.5年。”判決書將法官和ChatGPT的計算和提供的答案寫入判決。此外,法官還向ChatGPT詢問了荷蘭平均電價,并將其回答結果作為定案依據。

此判決書一公開,立即引發(fā)諸多專家學者和新聞媒體的關注。諸多專家對此紛紛發(fā)表自己的看法。

荷蘭互聯網專家亨克·艾斯抨擊:“這太荒謬了,我們必須對每一個AI都持保留態(tài)度。因為專家對太陽能電池板的壽命存在分歧,有人說它們最長可以使用40年?!?/p>

“ChatGPT一無所知,它不是一個數據庫。”荷蘭AI專家雅諾·杜爾斯瑪說,它只是“一個計算機系統,可以猜測句子中的下一個單詞,僅此而已”。

荷蘭一家網絡安全公司相關負責人戴夫·馬斯蘭則表示,AI可以減少等待時間、簡化流程,對法律系統有很大幫助,但必須徹底檢查其使用過程和答案。他認為:“生成式人工智能仍處于起步階段,‘幻覺’并不罕見。”

北京師范大學吳宗憲等學者認為,ChatGPT的運算是基于對大量數據的預學習,所涉及的數據存在數據來源不明問題,本質是算法黑箱,虛假或違法信息難以杜絕……存在多維度法律風險。西南政法大學陳煊、西北政法大學張夏恒等學者也認為,ChatGPT受到熱捧的同時,也存在數據生存生成、濫用等風險。

北京理工大學程韻認為,以ChatGPT為代表的生成式人工智能引領了新一代智能科技革命,但其數據來源不合規(guī)、生成內容有誤、出現虛假或違法信息、數據表泄露等風險應當有妥善的處置對策。

華東政法大學教授劉憲權則認為,以ChatGPT為代表的生成式人工智能的產生具有革命性和劃時代的意義,必然導致社會生產力的新一輪爆發(fā),進而決定生產關系發(fā)生重大改變,必須謹慎地對待其潛在的各種法律風險與挑戰(zhàn)。其他一些法律專家則對ChatGPT持肯定意見:相對于相關領域的專家證人的測算,ChatGPT計算得更為精準,而且,ChatGPT不會像人類相關領域的專家那樣,暗中收取一方當事人的賄賂,作出的司法鑒定更加公正、可信。

當然,如果ChatGPT出現漏洞,則可能引發(fā)系統性的風險。

哥倫比亞AI判案:誰應支付兒童治療費用

其實,早在荷蘭法官運用ChatGPT裁判之前,南美國家哥倫比亞的法官也曾更早地運用ChatGPT判案。

據《文匯報》《法治周末》等媒體報道,2023年1月30日,哥倫比亞法官胡安在審理一起涉及孤獨癥兒童是否應該獲得相應的醫(yī)療保障的案件中,也直接使用了ChatGPT這一軟件。法官胡安向ChatGPT提問:“孤獨癥兒童是否可免除支付治療費用?哥倫比亞憲法法院判例是否曾在類似案件中作出有利裁決?”

結果,ChatGPT回答:“是的,這是正確的。根據哥倫比亞法規(guī),被診斷患有孤獨癥的未成年人可免除看診治療費用?!?/p>

根據ChatGPT的回答,胡安法官作出了判決:因患兒父母負擔不起醫(yī)療費用,孩子的全部醫(yī)療費用和交通費用,由其醫(yī)保公司支付。

胡安法官將其向ChatGPT提問以及ChatGPT提供的答案公開寫到了判決書中,立即引發(fā)諸多媒體的關注,更被一些媒體稱為全球“AI審判第一案”。

胡安法官表示,自己并非讓AI取代法官作決定,而是節(jié)省起草判決書時間。胡安法官堅稱,裁決過程中,自己“并沒有停止作為法官的思考”。

對此,哥倫比亞最高法院法官奧克塔維奧·特杰羅表示,人工智能的橫空出世引發(fā)了道德恐慌,人們擔心程序或機器人將取代法官。他說:“我還沒有用過ChatGPT,但將來會考慮使用。”

哥倫比亞羅薩里奧大學教授古提瑞茲對此持批判意見,他介紹,他本人也對ChatGPT提出相同問題,但卻得到不同答案。他據此認為:“法官使用ChatGPT判決,既不負責任,也不道德,應該首先培養(yǎng)法官的數字素養(yǎng)。”

古提瑞茲的批判并非無的放矢。因為將AI引入司法活動的負面案例屢有發(fā)生,并非鮮見。

南京航空航天大學教授高志宏認為,ChatGPT方興未艾,Sora生成式人工智能橫空出世。生成式人工智能因其對社會生產生活諸多領域產生的顛覆性影響,已成為世界各國爭相布局的新興戰(zhàn)略行業(yè),但也帶來了重大的風險挑戰(zhàn)。其中既包括技術風險、倫理風險,還包括安全風險、法律風險,需要進行全方位創(chuàng)新。

巴西:出現謬誤甚多的AI裁決

2023年11月,巴西國家司法委員會發(fā)現本國法院的法官羅德里格斯公開的一份裁決法律謬誤甚多,遂要求其對此作出解釋。羅德里格斯辯解說,他作出的這份裁決是由ChatGPT生成。錯誤地引用了巴西最高法院判例等錯誤,是因為人工智能的失誤。他表示,作為法官,他的工作負擔過于繁重,以致于無暇仔細審查這份AI生成的裁決。

而在巴西、美國等國,依賴AI工具的法官不勝枚舉,故法學界諸多專家認為亟待制定新法對司法運用AI審案、破案進行監(jiān)督;對律師提供的AI生成內容應高度警惕。

據路透社報道,美國曼哈頓地區(qū)法官P·Kevin Castel在2023年6月決定,責令律師Steven Schwartz、PeterLoDuca及其律師事務所Levidow和Levidow&Oberman支付總計5000美元的罰款,原因是這兩位律師在向法院提交的一份訴訟文件中引用了由ChatGPT生成的6個虛構案例。法官認為律師們的行為存在惡意,構成“有意識的回避行為以及虛假和誤導性陳述”。Levidow和Levidow&Oberman表示,其律師不同意法院關于他們“惡意行事”的觀點:“我們犯了一個善意的錯誤,錯在沒有相信一項技術可以完全捏造案件?!?/p>

法官在制裁令中表示,律師使用人工智能“提供幫助”并沒有“本質上的不當”,但律師道德規(guī)則應當“對律師施加把關作用,以確保他們提交文件的準確性。”法官還表示,在法院和航空公司質疑這些虛假案件是否存在后,律師們“繼續(xù)支持這些虛假意見”。

有學者指出,法律文本與現實的距離,是ChatGPT無法逾越的。在適用法律時,法官會在生活事實與法律規(guī)范之間“目光往返”,并借助公序良俗、日常生活經驗等進行思維建構,作出更合理的因果判斷、價值選擇。比如解讀判例,ChatGPT做的是“比對”“刷題”,法官會做“提煉”“建構”,掌握判例背后的原理與要旨。當基于客觀證據來定案的案件數量累積到一定程度,AI經過學習與訓練,就能按照證據類型、數量進行概率測算,為法官斷案提供基礎,上海法院系統運行的刑事證據校正系統就是其中的良好范例。

AI司法需要制度來規(guī)范

德國哲學家馬爾庫塞在1964年的專著《工業(yè)社會的單一維度》中提出“科技異化”理論,認為科技發(fā)展為社會帶來巨大的生產力和效率提升,但在現代社會中,這些技術往往被反過來用于支配人類。帕加洛在《法律與人工智能高級導論》中提出:“人工智能可能具有特定形式的犯罪人格,考慮到人工智能的靈活性,可塑造機器人和人工智能系統……人工智能犯罪新場景的唯一限制是人類的想象力?!闭且驗槿斯ぶ悄軐ι鐣l(fā)展的巨大推動作用和存在的風險,人工智能在司法中尤其是在審判中的運用需要用制度來規(guī)范。

那么,AI司法未來該如何定位?

目前,以美國為代表的英美法系和以德國、法國為代表的大陸法系都在通過法律制度來確立人工智能的法律地位。我國《生成式人工智能服務管理暫行辦法》第三條規(guī)定:“國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務實行包容審慎和分類分級監(jiān)管?!痹谖覈痉I域,同樣也應當確立并始終堅持這個原則:既鼓勵創(chuàng)新、積極運用,又包容審慎。由于司法審判工作的復雜性和系統性,人工智能無論如何都無法完全取代法官。正如法甘(Frank Fagan)、萊夫莫爾(Saul Lev-more)等學者所言,法律實踐最好的方案是人與機器合作;人具有判斷復雜情形的優(yōu)勢,機器則具備計算的準確性。對于未來而言,應該發(fā)揮人與機器的各自專長,將二者結合。

在我國,司法實踐必須堅持人工智能對審判工作的輔助性定位,并賦予用戶自主決策權。

AI司法未來應如何確定發(fā)展之路

美國哲學家蘭登·溫納認為,技術本身是中性的,技術的影響取決于社會的使用和設計選擇。之江實驗室數據樞紐與安全研究中心特聘專家韓定一認為:“中國有數據規(guī)模的優(yōu)勢。希望能凝聚各方力量,抓住歷史機遇,把我們國家高質量的數據匯聚在一起。我相信我們有機會建成非常好的大模型?!表n定一的觀點,道出了中國AI發(fā)展走安全發(fā)展道路的優(yōu)勢與信心。未來學家伯納德·馬爾認為,迄今為止,各國政府和立法人員一直在努力應對監(jiān)管人工智能的挑戰(zhàn)。今年,歐盟和中國通過了旨在限制人工智能造成傷害可能性的法律,包括將深度偽造定為犯罪。

我國網絡安全法第二十一條規(guī)定:“網絡運營者應當按照網絡安全等級保護制度的要求,履行安全保護義務”。故審判工作要推動人工智能的運用和發(fā)展,要在安全的原則下,以人為本,減少法官、法官助理等人員的重復勞動,以科技向善,保護個人信息等合法權益為前提推動人工智能的發(fā)展和運用。要加強司法人工智能的基礎設施建設和安全運維保障,加強司法數據分類分級管理,完善司法數據安全共享和應用模式,防范化解人工智能應用過程中的安全風險。

未來,AI司法應如何打破算法的“黑箱”效應?如何構建可信賴的AI系統,讓技術為司法賦能?

AI要打破算法的“黑箱”效應,必須建立透明可信賴的算法公開和算法評估標準,構建公開公平透明的人工智能系統,取信于民。作為司法裁判的助手,AI必須以司法數據信息為基礎,將裁判考量的重要因素公之于眾。必須堅持人工智能研發(fā)、產品應用、服務運行的透明性,保障人工智能系統中的司法數據采集管理模式、法律語義認知過程、輔助裁判推定邏輯、司法服務互動機制等各個環(huán)節(jié)能夠以可解釋、可測試、可驗證的方式接受相關責任主體的審查、評估和備案。司法人工智能產品和服務投入應用時,應當以便于理解的方式說明和標識相應的功能、性能與局限,確保其應用過程和結果可預期、可追溯、可信賴。

AI司法未來應如何消除歧視與偏見?

司法必須保證人工智能產品和服務無歧視、無偏見,不因技術介入、數據或模型偏差影響審判過程和結果的公正。同時要尊重不同利益訴求,根據司法需求公平提供合理可行方案,充分照顧特殊群體,使其在司法活動中獲得必要幫助,實現智能化司法服務對各類用戶的普適包容和機會均等,防止技術突破司法正義紅線。

2019年,日本內閣發(fā)布“以人為中心的人工智能社會原則”,其目的在于確立人類利用AI目標在于造福人類,推動相關革新。今年4月,日本發(fā)布《AI運營商指南》,目的也在進一步促進運營商能安全、安心地利用AI。具體到司法實踐中,若訴訟一方存在借助AI的優(yōu)勢情況,法官應當平衡雙方當事人的權利義務,加大釋法力度,強化依職權調查證據、鑒定,依法公正審理案件。

AI司法未來應如何提升質效?

人工智能與審判工作的融合,其目的在于精準服務法官判案,獲得當事人和社會各界的認可。最高人民法院院長張軍指出:“人工智能的發(fā)展給人類社會帶來廣泛而深刻的影響,這些影響既以新型案件的形式投射到司法審判工作中,也為司法審判工作提供了新的科技支撐?!庇袑<抑赋?,當前國外一些國家AI引發(fā)的裁判錯誤及風險主要在于AI的智能化程度不足。一些法官、法官助理也認為,目前司法實踐中運用的AI如果能提升其速度、效能,有效防止和糾正其運行中出現的低級錯誤、高級錯誤,其系統性的風險和錯誤則必然減少。

近期,之江實驗室發(fā)起舉辦“之江圓桌會”,近百位科學家、企業(yè)家和投資家參加討論,他們直面問題、碰撞交流、對話交鋒、思考展望。

浙江省科技廳黨組書記、之江實驗室黨委書記佟桂莉表示:“人工智能發(fā)展的時代浪潮正奔涌而來,我們絕不能缺席,必須搶占風口,善抓機遇,努力成為人工智能賽道上的沖鋒者和領跑者。”復旦大學人工智能創(chuàng)新與產業(yè)研究院研究員徐盈輝認為,人工智能的發(fā)展應該是系統性的創(chuàng)新;高速度存儲、海量存儲等技術需要突破,要有系統性的架構思維,才能讓我國的AI發(fā)展走得更遠。

“面對當前的算力挑戰(zhàn),芯片企業(yè)的創(chuàng)新與突破,需要從體系架構、應用軟件及芯片生態(tài)等多個維度進行?!蹦柧€程創(chuàng)始人兼CEO張建中表示。

在我國法院,AI更應不斷提升其供給能力和賦能效應,讓技術為司法賦能。讓人工智能為證據指引與審查、法律法規(guī)推送、類案推送、全案由裁判輔助、法律文書輔助生成、法律文書輔助審查等智能化應用提供便利,促進裁判尺度統一,保障司法公正,維護司法權威。

歸根結底,AI司法未來應當如何打破國家壁壘,讓AI為人類創(chuàng)造更多福祉。

人工智能的發(fā)展很難一枝獨秀,其風險也難以一力獨擋,面對隱藏在網絡內外的犯罪、有組織的犯罪、跨國智能犯罪,必須加強國際交流合作,共同打擊隱藏在網絡上的犯罪。亦因如此,在2023年11月舉辦的首屆全球人工智能安全峰會上,包括中國、美國、英國、德國等在內的28個國家一致認為,人工智能在改善人類福祉上存在著巨大潛能,但同時亦存在不可預知的潛在風險。與會國簽署發(fā)表了《布萊切利宣言》,同意通過國際合作建立人工智能的監(jiān)管方法,以法規(guī)監(jiān)管等方式防范風險。我國應當在此基礎上,加強與國際社會合作,有效打擊有組織地操縱人工智能犯罪行為。

司法人工智能的制度完善離不開法律法規(guī)體系的完善。當前,兩大法系都在加強人工智能立法,努力讓人工智能更好地服務司法,服務社會。我國亦應當緊密結合我國人工智能產業(yè)發(fā)展、技術創(chuàng)新和法院運用等實際情況,加強人工智能的立法研究,加快推動我國出臺人工智能法,為司法人工智能提供法律保障。

新華三集團高級副總裁張鵬認為,“要以務實的態(tài)度看待技術路線,兼顧當下和未來。”創(chuàng)新不可規(guī)劃,應當在快速迭代中鼓勵試錯,努力實現追趕超越;創(chuàng)新不要狹隘,應當在承認差距中兼容并蓄讓我們的AI發(fā)展大有可為。

我們相信,有國家政策的大力倡導,有國家法律的大力保障,有社會各界的持續(xù)努力,有國際社會的交流合作,AI審判,必將在時代的浪潮中,直掛云帆濟滄海,為人類創(chuàng)造更多福祉。


文章來源:《法制與新聞》雜志2024年11月上期

   編輯:周潔萌