美國首席大法官羅伯特(John Robert)在參加一次活動(dòng)時(shí),有人問他能否預(yù)見“智能機(jī)器協(xié)助法庭發(fā)現(xiàn)事實(shí),甚至協(xié)助法官作出司法裁決”的時(shí)代,他回應(yīng)說:“這已經(jīng)是今天的事實(shí)?!?/span>
文/何能高
人工智能(簡稱AI)司法的興起,與AI技術(shù)的創(chuàng)新發(fā)展、突飛猛進(jìn)密切相關(guān);更與世界各國的法律制度、司法實(shí)踐密切相關(guān)。
在技術(shù)上,AI首先在美國誕生,更在美國快速發(fā)展,故美國對(duì)AI司法更為包容、開放;美國司法也對(duì)社會(huì)公眾的批評(píng)和使用AI對(duì)司法判決的預(yù)測(cè)更包容開放。而以德國、法國為代表的歐洲,由于與美國屬于不同的法系,法律制度、司法運(yùn)行模式相差較大,社會(huì)公眾對(duì)AI司法出現(xiàn)的安全風(fēng)險(xiǎn)、錯(cuò)誤的容忍度更低,批評(píng)監(jiān)督的程度更高,故德法等大陸法系國家在對(duì)AI審判的價(jià)值取向、法律制度和風(fēng)險(xiǎn)控制等方面存在較大不同。我國運(yùn)用AI輔助審判的司法實(shí)踐雖然時(shí)間上比美國、英國等國家更晚,但由于制度體制優(yōu)勢(shì),我國司法運(yùn)用AI輔助審判的起點(diǎn)更高,運(yùn)用范圍更廣,所取得的司法效果也更佳。
世界各國對(duì) AI 審判的價(jià)值取向、風(fēng)險(xiǎn)控制等存在較大差別。(圖 /VCG)
英美法系:AI司法應(yīng)用廣泛
1946年2月,美國賓夕法尼亞大學(xué)研制出人類歷史上真正意義的第一臺(tái)電子計(jì)算機(jī),其應(yīng)用領(lǐng)域從最初的軍事科研應(yīng)用迅速擴(kuò)展到社會(huì)的各個(gè)領(lǐng)域。
互聯(lián)網(wǎng)也始于1969年美國的阿帕網(wǎng)。AI也最早在美國司法得到運(yùn)用,美國諸多州法院早在20世紀(jì)即開始將人工智能技術(shù)廣泛用于刑事案件量刑。美國在制定《刑事案件量刑指南》過程中,針對(duì)每個(gè)罪名收集了5萬份案例分析研究后確定量刑標(biāo)準(zhǔn)。在這之后,英國也將電腦量刑引入刑事審判并在高等法院推廣。
美國于1998年開發(fā)了COMPAS軟件,并被運(yùn)用于司法,作為法院量刑和是否準(zhǔn)許被告人取保候?qū)?、假釋的人工智能預(yù)測(cè)工具。運(yùn)用該軟件的法院會(huì)針對(duì)被告人或罪犯對(duì)軟件預(yù)先設(shè)定的137個(gè)問題的回答開展預(yù)測(cè),以此評(píng)估其再犯的風(fēng)險(xiǎn)。該軟件被美國諸多州法院采用。
有研究表明,該軟件的總體再犯預(yù)測(cè)準(zhǔn)確率為65.1%。PSA和LSI-R亦是美國諸多法院經(jīng)常使用的風(fēng)險(xiǎn)評(píng)估軟件。目前美國已有一半以上的州法院使用上述軟件來輔助法官量刑。
與此同時(shí),AI還被美國司法廣泛地運(yùn)用于輔助科學(xué)證據(jù)可采性的審查判斷以及審前程序等諸多方面。在審前程序中,法官借助AI對(duì)專家證言等證據(jù)的可采性進(jìn)行評(píng)估。華東政法大學(xué)學(xué)者陳邦達(dá)認(rèn)為,由于法官大多是科學(xué)技術(shù)的外行,人工智能恰恰可以彌補(bǔ)法官在此方面的不足。
2013年,美國法院在審理威斯康星州訴盧米斯(Wisconsin v.EricLoomis)一案中,采信了威斯康星州懲戒署向法院提供的一份包括“COMPAS風(fēng)險(xiǎn)評(píng)估”在內(nèi)的判刑前調(diào)查報(bào)告,法庭根據(jù)該報(bào)告判處盧米斯6年有期徒刑和5年的延期監(jiān)督。盧米斯認(rèn)為,法院依據(jù)COMPAS評(píng)估報(bào)告對(duì)其判刑侵犯了其正當(dāng)程序權(quán)利,對(duì)法院的判決不服上訴。結(jié)果,被威斯康星州上訴法院和最高法院駁回。法院認(rèn)為:在評(píng)測(cè)中所用信息的準(zhǔn)確性已經(jīng)得到驗(yàn)證;評(píng)估報(bào)告不是法院作出決定的唯一依據(jù);法院即使考慮了“COMPAS評(píng)估”因素,仍然足以進(jìn)行個(gè)別化裁判,因?yàn)榉ü儆邢鄳?yīng)的辨別力。
美國首席大法官羅伯特(JohnRobert)在參加一次活動(dòng)時(shí),有人問他能否預(yù)見“智能機(jī)器協(xié)助法庭發(fā)現(xiàn)事實(shí),甚至協(xié)助法官作出司法裁決”的時(shí)代,他回應(yīng)說:“這已經(jīng)是今天的事實(shí)?!?/p>
美國AI審判:學(xué)界的擔(dān)憂
美國司法系統(tǒng)廣泛運(yùn)用AI的情況引發(fā)國內(nèi)外諸多學(xué)者的關(guān)注。尤其是上述盧米斯一案更加引發(fā)學(xué)界的關(guān)注,ProPublica發(fā)布的調(diào)查表明,COMPAS系統(tǒng)存在嚴(yán)重的種族偏見。學(xué)者們認(rèn)為,在核心算法的研發(fā)過程中,司法工作人員可能會(huì)提供司法專業(yè)方面的意見,但其實(shí)質(zhì)仍然是由技術(shù)研發(fā)人員主導(dǎo)核心算法的設(shè)計(jì),而這些技術(shù)研發(fā)人員極有可能將個(gè)人的偏見嵌入算法之中。比如黑人犯罪者通過COMPAS算法評(píng)估后,被認(rèn)為未來再犯的可能性更大,而被賦予更高的風(fēng)險(xiǎn)等級(jí),而實(shí)際上,這些黑人并沒有再次犯罪。
美國哥倫比亞大學(xué)法學(xué)院教授李本(Benjamin L.Liebman)認(rèn)為,在刑事訴訟程序中,算法已經(jīng)被大量運(yùn)用于預(yù)測(cè)被告人是否存在再次犯罪和在開庭日能否出庭等可能性,并影響法官對(duì)被告人的量刑及是否允許被告人獲得保釋、假釋。美國司法界希望在AI的幫助下通過更精確的風(fēng)險(xiǎn)評(píng)估來降低羈押率。另一些州則直接使用并依靠人工智能軟件作出量刑。
此種做法引發(fā)美國法學(xué)界的諸多質(zhì)疑和擔(dān)憂。一是準(zhǔn)確性問題:有研究顯示,在被算法預(yù)測(cè)的未來兩年內(nèi)將實(shí)施暴力犯罪的人中,僅有20%的人實(shí)施了暴力犯罪。二是社會(huì)問題:算法在預(yù)測(cè)評(píng)估時(shí)會(huì)考量被告人及其親屬的生活環(huán)境、受教育程度、收入情況、違法記錄等情況,形成一種壓制貧困者的體制。美國雖然不允許開發(fā)者在人工智能軟件、算法和模型中明確寫入種族等因素,但因上述諸多因素客觀上與種族相互關(guān)聯(lián),故客觀上容易引發(fā)種族歧視。學(xué)者布里森(Joanna Bryson)強(qiáng)調(diào),即使最為尖端的人工智能也會(huì)繼承它們所錄入的種族和性別歧視信息。ProPublica機(jī)構(gòu)公開的文章顯示,廣泛使用的軟件評(píng)估黑人被告人的累犯率是白人的兩倍。三是正當(dāng)程序問題:負(fù)責(zé)設(shè)計(jì)上述人工智能的公司拒絕公開它們的算法以及這些算法所考量的要素,被告人及其辯護(hù)律師無從了解這些算法是如何設(shè)計(jì)的,客觀上形成了評(píng)估的“黑箱”。四是系統(tǒng)性錯(cuò)誤風(fēng)險(xiǎn)問題:人工智能醫(yī)生Watson在2018年被曝出給多名癌癥患者開錯(cuò)藥方,美國亞馬遜公司的人臉識(shí)別軟件也將多名國會(huì)議員錯(cuò)誤識(shí)別為罪犯。人工智能一旦出現(xiàn)漏洞就易發(fā)生系統(tǒng)性錯(cuò)誤,造成批量的重大錯(cuò)誤。五是對(duì)現(xiàn)有司法制度造成沖擊風(fēng)險(xiǎn)。實(shí)踐中,諸多法院采用的人工智能系統(tǒng)一致,當(dāng)事人對(duì)一審不服,上訴到二審法院,二審法院若采用同樣的人工智能算法,其結(jié)果自然相同,如此則使上訴制度失去存在價(jià)值。
正因?yàn)槿斯ぶ悄茉谒痉ㄖ械膹V泛運(yùn)用和存在的風(fēng)險(xiǎn),近期美國國會(huì)密集引入了《透明自動(dòng)化治理法案》《全球技術(shù)領(lǐng)導(dǎo)法案》《人工智能披露法案》《國家人工智能委員會(huì)法案》,其目的不言而喻。
貝克在《風(fēng)險(xiǎn)社會(huì)》中指出:“任何新興技術(shù)的誕生與運(yùn)用,在給人們帶來機(jī)遇與便利的同時(shí),也可能產(chǎn)生風(fēng)險(xiǎn)與制造挑戰(zhàn)?!眲倓偒@得2024年諾貝爾物理學(xué)獎(jiǎng)的人工智能先驅(qū)杰弗里·欣頓亦承認(rèn),他于2023年從谷歌辭職,就為了暢所欲言地談?wù)撨@項(xiàng)技術(shù)的危險(xiǎn)性。英國物理學(xué)家霍金甚至預(yù)言:“人工智能的發(fā)展可能意味著人類的滅亡?!?/p>
大陸法系:內(nèi)寬外緊,嚴(yán)格適用法、德、日是大陸法系的最為重要的國家。法國法院系統(tǒng)內(nèi)部可以通過人工智能審理案件,提升辦案效率,并可以使用AI對(duì)案件結(jié)果進(jìn)行預(yù)測(cè),形成類案指引,保證類案類判。但對(duì)于法院外部力量是否可以采用人工智能來預(yù)測(cè)法院的判決,則不被允許。
法國于2019年3月頒布法律,明確規(guī)定,“法官和書記官的個(gè)人數(shù)據(jù)不能被用于評(píng)估、分析、比較或預(yù)測(cè)他們實(shí)際做出或?qū)⒁龀龅膶I(yè)行為”,任何違反該條新規(guī)的人都可能被判入獄5年。該法的立法初衷本是為強(qiáng)化司法透明度。但因法官的判決與人工智能作出的司法預(yù)測(cè)存在較大差距而引發(fā)公眾質(zhì)疑,法官們普遍擔(dān)心,人工智能對(duì)司法判決的預(yù)測(cè)將對(duì)法官在個(gè)案中的自由心證形成壓力,與法官依法獨(dú)立行使司法權(quán)存在結(jié)構(gòu)性矛盾。而且,在此過程中,法官們確實(shí)出現(xiàn)過AI預(yù)測(cè)與他們所作出的判決不一致的情況,由此引發(fā)輿論大嘩,諸多媒體競相報(bào)道,給法官審案帶來巨大的壓力,一些法官甚至因此要求判決書不予署名。故立法機(jī)關(guān)最終不得不對(duì)此問題采取折中處理,一方面要求法官辦案,繼續(xù)在裁判文書上署名;另一方面,嚴(yán)格要求擁有AI的公司和個(gè)人,不得使用AI對(duì)法院尚未作出的判決作出預(yù)測(cè),以免誤導(dǎo)公眾。
法國總統(tǒng)馬克龍認(rèn)為,人工智能發(fā)展必須實(shí)現(xiàn)算法的透明化,方能保證法律的公平正義及提升“指引”的說服力。
此外,判決數(shù)據(jù)的完整性也是阻礙人工智能準(zhǔn)確適用的重要原因。目前,法國司法部的官方網(wǎng)站Légifrance僅公布了不到1%的裁判文書,這些數(shù)據(jù)顯然達(dá)不到“完整”的要求。
法國當(dāng)下禁止人工智能指引裁判,主要是出于對(duì)人工智能技術(shù)不成熟的擔(dān)心。法國民調(diào)機(jī)構(gòu)奧多克薩研究所(Odoxa institute)最近為甲骨文云計(jì)算公司(Oracle)進(jìn)行的一項(xiàng)調(diào)查結(jié)果顯示,67%的法國人認(rèn)為人工智能是一種威脅:“現(xiàn)在(持威脅論)的比例明顯占多數(shù)。去年同期,只有53%的法國人持這種觀點(diǎn)。”
基于人工智能存在的風(fēng)險(xiǎn),德國對(duì)人工智能強(qiáng)化了規(guī)則治理。目前,網(wǎng)絡(luò)上存在利用人工智能技術(shù)實(shí)施網(wǎng)絡(luò)釣魚、非法使用無人機(jī)、合成虛假信息、非法侵入計(jì)算機(jī)、“深度偽造”等違法犯罪問題,故德國于2019年加大了本國《網(wǎng)絡(luò)安全法》的適用范圍,要求相關(guān)軟硬件供應(yīng)商向主管當(dāng)局報(bào)告涉及其產(chǎn)品的所有安全相關(guān)事項(xiàng),確保關(guān)鍵基礎(chǔ)設(shè)施的運(yùn)行不受影響。新法律大幅增加了違規(guī)行為的處罰力度,將此前的5萬至10萬歐元罰款提升至最高可達(dá)違規(guī)公司全球總營業(yè)額的4%或2000萬歐元罰款。
2023年11月,德國與法國、意大利就如何監(jiān)管人工智能應(yīng)用達(dá)成聯(lián)合協(xié)議,對(duì)人工智能基礎(chǔ)模型實(shí)行“強(qiáng)制性自我監(jiān)管”,并強(qiáng)調(diào)監(jiān)管的是人工智能應(yīng)用,而不是技術(shù)本身。協(xié)議要求人工智能基礎(chǔ)模型的開發(fā)人員必須定義模型卡,公布關(guān)于模型功能、能力限制等相關(guān)信息。如果在人工智能的應(yīng)用中被查明有不當(dāng)行為,將會(huì)受到嚴(yán)厲制裁。
日本AI司法:奮起直追
日本也是大陸法系國家。在日本法院,人工智能的運(yùn)用主要是輔助法官進(jìn)行審理或裁判。2006年,日本法院在督促支付程序上導(dǎo)入了“在線督促程序系統(tǒng)”。東京地方法院率先運(yùn)用該系統(tǒng),此后運(yùn)用的區(qū)域范圍逐步擴(kuò)大,至2010年11月擴(kuò)展到全國法院,每年處理的案件達(dá)9萬件以上。2017年6月,日本內(nèi)閣通過《未來投資戰(zhàn)略2017》,宣布“為實(shí)現(xiàn)迅速且有效率的審判,從審判中的程序保障和情報(bào)安全的綜合角度,參照國外的狀況,迅速探討在獲得有關(guān)機(jī)關(guān)協(xié)助下立足于利用者立場推進(jìn)審判程序等IT化的方案,并在本年度內(nèi)得出結(jié)論”。2018年日本發(fā)布《邁向?qū)徟谐绦虻菼T化的總結(jié):以3e實(shí)現(xiàn)為目標(biāo)》的報(bào)告,提出IT化目標(biāo)是從訴訟提起至終結(jié)的全面IT化。
對(duì)此,日本學(xué)者小林學(xué)坦陳:“AI化主要是輔助法官進(jìn)行審理或判斷,要實(shí)現(xiàn)AI法官則存在各種現(xiàn)實(shí)的障礙。目前,電話會(huì)議系統(tǒng)雖然得以廣泛運(yùn)用,但是電視會(huì)議系統(tǒng)幾乎沒有得到運(yùn)用?!?/p>
日本學(xué)者青木孝之認(rèn)為,從2009年5月起,日本刑事審判中導(dǎo)入了運(yùn)用大數(shù)據(jù)的“審判員量刑檢索系統(tǒng)”。“通過錄入并檢索與犯罪情節(jié)有關(guān)的基本量刑因素,使刑事裁判員在裁判時(shí)能夠從視覺上把握同種類先例的量刑傾向”。該系統(tǒng)以案件的概要、兇器種類、被害程度、共犯有無、反省程度、被害人處罰情況等為數(shù)據(jù)基礎(chǔ),存儲(chǔ)了2008年4月以來一審中裁判員裁判宣告犯罪嫌疑人有罪的所有案件。在尋找適合事例時(shí)輸入相應(yīng)項(xiàng)目,就可依數(shù)值和量刑分布圖區(qū)別顯示不同量刑件數(shù),作為法官和裁判員裁判時(shí)的參考。
日本法官每人手上通常有200至300個(gè)案件要審理,加之民事訴訟內(nèi)容復(fù)雜,可能適用的法律僅國內(nèi)法就超8000件,有的案件還需要適用條例和外國法。
法官不可能完全熟練掌握這些法律,尤其是在醫(yī)藥、化學(xué)、建筑、IT、金融等相關(guān)專門領(lǐng)域,法令龐大且修改速度較快,要求法官全部熟練掌握根本不可能。故法官們期待能通過AI來作為輔助性審判工具。
日本前述學(xué)者認(rèn)為,日本審判AI化,當(dāng)前只能協(xié)助法官進(jìn)行輔助性工作,若要擴(kuò)大AI的運(yùn)用范圍,應(yīng)當(dāng)考慮通過人工智能導(dǎo)入“AI法官”,自主制作或宣告附有判決主文(結(jié)論)和理由的判決。但學(xué)者們亦擔(dān)心,AI法官不能表明合議庭內(nèi)不同法官的多個(gè)意見,不能基于確定的事件真相或尊重當(dāng)事人之間的社會(huì)關(guān)系,故只能是在部分領(lǐng)域運(yùn)用:基于當(dāng)事人之間的合意選擇或由AI進(jìn)行仲裁,充當(dāng)法官審案的前置程序。
歐盟議會(huì)投票決定對(duì)生成式人工智能增加更多安全控制措施。(圖 /VCG)
歐盟法案:創(chuàng)新與安全的平衡
2019年4月,歐盟委員會(huì)頒布了由其人工智能高級(jí)專家組起草的《可信賴的人工智能倫理準(zhǔn)則》,以期建立歐盟范圍內(nèi)以人為本、可信賴的人工智能倫理標(biāo)準(zhǔn),并不斷促進(jìn)社會(huì)公眾接受人工智能技術(shù),進(jìn)而合理應(yīng)用人工智能技術(shù)。
2021年4月,歐盟委員會(huì)提出《人工智能法案》提案的談判授權(quán)草案。此后,包括法國、德國在內(nèi)的一些國家對(duì)法案文本表達(dá)異議,擔(dān)憂法案對(duì)先進(jìn)人工智能模型的嚴(yán)格監(jiān)管將阻礙歐洲人工智能的發(fā)展。為了解決這些擔(dān)憂,歐盟委員會(huì)在人工智能領(lǐng)域推出多項(xiàng)支持創(chuàng)新的措施,建立新的監(jiān)管機(jī)構(gòu)“人工智能辦公室”負(fù)責(zé)該法案的實(shí)施。
2023年12月,歐洲議會(huì)、歐盟成員國和歐盟委員會(huì)三方就《人工智能法案》達(dá)成協(xié)議。2024年2月2日,歐盟27國代表投票一致支持《人工智能法案》文本,標(biāo)志歐盟向立法監(jiān)管人工智能邁出重要一步。歐盟內(nèi)部市場委員蒂埃里·布雷東在社交媒體上發(fā)文說,27國一致支持這一法案,說明它們認(rèn)可“談判者在創(chuàng)新與安全之間找到了完美平衡”。
今年3月、5月,歐洲議會(huì)、歐盟理事會(huì)先后正式批準(zhǔn)《人工智能法案》。該法案于今年8月1日正式生效。該法案是全球首部全面監(jiān)管人工智能的法規(guī),標(biāo)志著歐盟在規(guī)范人工智能應(yīng)用方面邁出
重要一步。
該法案在適用范圍、人工智能系統(tǒng)風(fēng)險(xiǎn)分級(jí)管理、通用人工智能模型管理、執(zhí)法與處罰等方面,提出合規(guī)義務(wù)框架。該法案規(guī)定,聊天機(jī)器人等人工智能系統(tǒng)必須明確告知用戶他們?cè)谂c機(jī)器互動(dòng),人工智能技術(shù)提供商必須確保合成的音頻、視頻、文本和圖像內(nèi)容能夠被
檢測(cè)為人工智能生成的內(nèi)容。此外,該法案規(guī)定,禁止使用被認(rèn)為對(duì)用戶基本權(quán)利構(gòu)成明顯威脅的人工智能系統(tǒng)。法案按照人工智能系統(tǒng)對(duì)用戶和社會(huì)的潛在影響程度將其分為4類:不可接受風(fēng)險(xiǎn)類、高風(fēng)險(xiǎn)類、有限風(fēng)險(xiǎn)類、最小風(fēng)險(xiǎn)類。風(fēng)險(xiǎn)等級(jí)越高,管控越嚴(yán)格。對(duì)有違規(guī)行為的企業(yè),歐盟最高將對(duì)其處以全球年?duì)I業(yè)額7%的罰款。
法案考慮到創(chuàng)新與安全的平衡,規(guī)定相關(guān)規(guī)則將分階段實(shí)施,其中一些禁止性規(guī)則將在該法律通過六個(gè)月后生效,與通用人工智能模型相關(guān)的某些規(guī)則將從2025年起適用。
橫看成嶺側(cè)成峰,遠(yuǎn)近高低各不同。仁者見仁智者見智,有贊許,有質(zhì)疑。但世界各國的AI審判,一直在加速疾行!
文章來源:《法制與新聞》雜志2024年11月上期
編輯:周潔萌