芥末堆芥末堆

斯坦福開設(shè)AI法律課,人工智能能否成為法律主體?

作者:硅谷密探 發(fā)布時(shí)間:

斯坦福開設(shè)AI法律課,人工智能能否成為法律主體?

作者:硅谷密探 發(fā)布時(shí)間:

摘要:斯坦福法學(xué)課的新嘗試:人工智能載體到底擔(dān)不擔(dān)責(zé)任?如果擔(dān)責(zé),該如何量刑?

franck-v-740555-unsplash.jpg

圖片來源:unsplash

去年3月,亞利桑那州發(fā)生一起Uber無人駕駛汽車撞死行人事故。直到今年年3月5日,美國檢察官表示:Uber公司不用擔(dān)責(zé),但自動(dòng)駕駛汽車的后備司機(jī)Rafael Vasquez的行為應(yīng)提交警方進(jìn)行進(jìn)一步調(diào)查。

微信圖片_20190328152046.jpg

(事故現(xiàn),圖片來自網(wǎng)絡(luò))

然而,在2016年2月,谷歌無人駕駛汽車在加州山景城測(cè)試時(shí),與一輛公交大巴發(fā)生碰擦,美國高速公路安全管理局(NHTSA)卻確認(rèn),用于自動(dòng)駕駛的人工智能系統(tǒng)可以被視為司機(jī)。

人工智能的異軍突起將這樣的案件帶入公共視野,也為當(dāng)前的法律法規(guī)、倫理規(guī)范和政策體系帶來不小的考驗(yàn):

“人工智能的載體究竟是不是法律主體?”

這樣的問題在斯坦福大學(xué)新開設(shè)的一門法律和計(jì)算機(jī)科學(xué)交叉的課程上激起了熱烈討論。如果不是法律主體,那么當(dāng)人工智能載體觸犯他人利益、造成社會(huì)損失時(shí),究竟應(yīng)該由研發(fā)者、運(yùn)營者還是使用者承擔(dān)責(zé)任呢?如果是法律主體,那么又該如何為這些“人工智能”定罪量刑呢?

今天小探就帶你一起看看,在人工智能沖擊傳統(tǒng)法律、公共政策的當(dāng)下,斯坦福大學(xué)的教育專家和法律人士都在做些什么努力。

AI制定政策?聯(lián)邦政府早已啟動(dòng)

不要以為人工智能只是科技公司的專利。事實(shí)上,近年來美國聯(lián)邦政府已經(jīng)開始考慮使用機(jī)器學(xué)習(xí)和人工智能相關(guān)技術(shù)幫助公共政策的制定。

美國環(huán)保署(EPA)管理殺蟲劑的例子就很好體現(xiàn)了算法分析和法律相互作用的微妙形式。

過去,美國環(huán)保署對(duì)殺蟲劑的毒性檢測(cè)很大程度上取決于動(dòng)物對(duì)化學(xué)藥物的反應(yīng)。但面對(duì)超過80000種待檢測(cè)化學(xué)藥物的壓力,這種方法被普遍評(píng)價(jià)為緩慢、昂貴、又不人道。   

微信圖片_20190328152054.jpg


(圖片來自網(wǎng)絡(luò),版權(quán)屬于原作者)

后來,美國環(huán)保署開始大量收集數(shù)據(jù),并引進(jìn)不同計(jì)算方法來規(guī)范化學(xué)毒性檢查。它建立了一個(gè)聚合計(jì)算毒理學(xué)資源庫(Aggregated Computational Toxicology Resource),根據(jù)各種公共資源整合的關(guān)系型數(shù)據(jù)庫,用以支持?jǐn)?shù)據(jù)挖掘和建模。——在算法與神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)的分析中去尋找決策新思路。

當(dāng)人工智能介入法律決策,美國的殘疾索賠程序也開始發(fā)生變化。

2013年以來,為了減少工作人員審理紙質(zhì)文件的負(fù)擔(dān),并提高案件決策一致性,美國退伍軍人事務(wù)部推出了一套計(jì)算機(jī)案件管理系統(tǒng),用于處理退伍軍人的殘疾索賠。

據(jù)報(bào)道,該系統(tǒng)可以根據(jù)索賠人(自我報(bào)告)的調(diào)查問卷,從0-100%自動(dòng)評(píng)估不同退伍軍人的殘疾程度。目前這套軟件使用的是IBM Watson 的人工智能程序,從退伍軍人的電子醫(yī)療記錄中進(jìn)行數(shù)據(jù)篩選。

科技巨頭,政府?dāng)?shù)字化改革的合伙人?

今年2月,特朗普簽署了一項(xiàng)推廣人工智能的新行政命令,再次將人工智能升級(jí)為國之重策。然而目前除了軍事部門,大部分聯(lián)邦機(jī)構(gòu)的技術(shù)更新依舊緩緩慢,高技術(shù)人才也相對(duì)緊缺。哪里高級(jí)人才多?當(dāng)然要屬硅谷的科技巨頭們了。

那么,處于技術(shù)前沿的科技公司又在聯(lián)邦政府的技術(shù)升級(jí)中擔(dān)任什么角色呢?

微信圖片_20190328152059.jpg

(特朗普簽署優(yōu)先發(fā)展人工智能研究的行政命令,圖片來自網(wǎng)絡(luò))

像IBM等科技巨頭跟政府已在人工智能領(lǐng)域有多個(gè)合作項(xiàng)目:

美國海軍陸戰(zhàn)隊(duì)正在使用Watson的人工智能設(shè)備來診斷軍用車輛的性能,并將自然語言處理和數(shù)據(jù)科學(xué)——例如IBM的SPSS統(tǒng)計(jì)軟件和Watson Explorer——應(yīng)用于人員的組織和部署。在不久前,這些大部分計(jì)劃和日程安排都是通過電子表格完成的。

微信圖片_20190328152102.jpg

(AI正在改變海軍陸戰(zhàn)隊(duì)的部署方式,圖片來自IBM官網(wǎng))

除了技術(shù)上的支持,科技公司也會(huì)在核心科技的政策、監(jiān)管、應(yīng)用前景方面與政府交換意見。

今年2月,谷歌便向美國政府提出了一份長達(dá)34頁的《關(guān)于人工智能管理的意見》(Perspective on Issues in AI Governance),呼吁政府和社會(huì)、工業(yè)界就人工智能的可解釋性標(biāo)準(zhǔn)、公平性評(píng)估、安全考慮和責(zé)任框架等方面進(jìn)行合作。

谷歌建議,要像歐洲的電子產(chǎn)品在銷售前需經(jīng)過CE認(rèn)證一樣,美國政府也應(yīng)為人工智能創(chuàng)建類似的安全指標(biāo)。“例如,針對(duì)智能鎖當(dāng)中的生物識(shí)別技術(shù),就應(yīng)在使用前測(cè)試它的準(zhǔn)確度是否達(dá)標(biāo)?!惫雀璧男屡d技術(shù)全球政策負(fù)責(zé)人Charina Chou表示。

盡管不少科技巨頭都與政府在技術(shù)方面的合作項(xiàng)目,但如果這些項(xiàng)目有涉及侵犯隱私、違背倫理的風(fēng)險(xiǎn)呢?

還記得谷歌和美國國防部合作的Maven項(xiàng)目嗎?這個(gè)去年3月被爆出后鬧得沸沸揚(yáng)揚(yáng)的項(xiàng)目,是谷歌把人工智能技術(shù)用于分析無人機(jī)鏡頭當(dāng)中,幫助無人機(jī)更好地從移動(dòng)或靜止圖像中自動(dòng)追蹤感興趣對(duì)象,從而提高打擊精準(zhǔn)度。這些無人機(jī)可能會(huì)參與到美國對(duì)阿富汗、巴勒斯坦、也門等國的空襲當(dāng)中。

很快,超過4000名谷歌員工簽署了一份反對(duì)“Maven”項(xiàng)目的請(qǐng)?jiān)笗?,他們?cè)凇都~約時(shí)報(bào)》刊登了整版廣告,并導(dǎo)致了數(shù)十名員工辭職。最終,去年6月,谷歌松口了。表示將在今年3月到期后,不再與國防部續(xù)約合作。

微信圖片_20190328153308.jpg

450多名亞馬遜員工也在近日公開致信貝索斯,希望公司停止與美國國防部和執(zhí)法系統(tǒng)就面部識(shí)別軟件 Rekognition 合作的項(xiàng)目。他們擔(dān)憂的地方在于,執(zhí)法部門在沒有公眾監(jiān)督、社會(huì)問責(zé)和亞馬遜限制的情況下使用這些技術(shù),很可能造成對(duì)人權(quán)的侵犯。

然而,貝索斯表示,公司將持續(xù)和國防部合作,“如果大科技公司都拒絕了國防部,那么這個(gè)國家會(huì)陷入麻煩……這是我們?cè)撟龅氖虑?,就算它不受歡迎?!?/p>

人工智能與行政結(jié)合的優(yōu)勢(shì)與擔(dān)憂

到底人工智能對(duì)政府績效的改善有哪些優(yōu)點(diǎn)?主要有三點(diǎn)難以抗拒的優(yōu)勢(shì)。

第一是效率。以較低成本完成大量重復(fù)性事件。另一方面,機(jī)器能在排除個(gè)人因素干擾的前提下進(jìn)行數(shù)據(jù)分析和結(jié)果預(yù)測(cè)。決策者可能表現(xiàn)出種族偏見,可能過分地或不足地衡量某一信息的重要性,或者可能對(duì)所處情況的預(yù)設(shè)過于天真。對(duì)人為意志的排除使機(jī)器做出的決策有天然的說服力。

最重要的是,通過與大數(shù)據(jù)的連接,計(jì)算機(jī)程序能幫政府官員分析信息,并對(duì)潛在的戰(zhàn)略性行為做出反應(yīng)。

微信圖片_20190328152110.jpg

(人工智能在反洗錢領(lǐng)域的應(yīng)用探索,圖片來自網(wǎng)絡(luò))

然而,提升行政效率帶來的同時(shí),使用機(jī)器辦公的規(guī)范性問題也被提上日程。

近期,加州最高法院大法官M(fèi)ariano-Florentino Cuéllar就在其著作《人工智能與行政國家》(Artificial Intelligence and the Administrative State)中,提出了四點(diǎn)對(duì)決策過程中使用人工智能代理的擔(dān)憂。

微信圖片_20190328152113.jpg

(加州最高法院大法官M(fèi)ariano-Florentino Cuéllar本人)

首先,政府是否該依賴計(jì)算機(jī)程序做出某項(xiàng)決策?大法官認(rèn)為,這取決于決策目標(biāo)的社會(huì)爭議性。當(dāng)前,立法者常針對(duì)是否該做出某項(xiàng)行政決定(如實(shí)施經(jīng)濟(jì)制裁)以及該決定會(huì)在不同層面導(dǎo)致的后果進(jìn)行大量的辯論,人工智能將如何統(tǒng)籌政治博弈中的各方利益?這將是個(gè)不小的挑戰(zhàn)。

第二點(diǎn)擔(dān)憂和爭議來自人工智能所謂的“機(jī)械理性”。由于在由算法主導(dǎo)的行政決策占越來越重要的位置,但機(jī)器減少人為因素干擾的同時(shí),是否應(yīng)該反思,那些所謂的“偏見”和“情感因素”是否都沒有價(jià)值?一些可能被機(jī)器排除的“偏見”例如對(duì)弱者的同情,或許也同樣值得關(guān)注。

微信圖片_20190328153528.jpg

       (機(jī)器就一定公平嗎?圖片來自網(wǎng)絡(luò))

第三,網(wǎng)絡(luò)安全風(fēng)險(xiǎn)及其他不利影響。當(dāng)行政越來越依賴數(shù)據(jù)收集和計(jì)算機(jī)程序,這可能帶來更高的效率,也同時(shí)意味著受網(wǎng)絡(luò)安全威脅的影響更大。    

最后,如何向公眾解釋決策過程將遇到困難。試想一下,民主治理的內(nèi)涵是通過對(duì)話和交流,每一種聲音都有被決策者或公眾理解、接受或拒絕的機(jī)會(huì)。除非人工智能的決策機(jī)制能依賴相對(duì)簡單透明的結(jié)構(gòu),否則向公眾提供決策如何產(chǎn)生的理由時(shí),決策機(jī)構(gòu)將會(huì)遇到相當(dāng)?shù)睦щy。

斯坦福法律課上的頭腦風(fēng)暴

面對(duì)這些擔(dān)憂,身處硅谷中心的斯坦福大學(xué)已開始促成從學(xué)術(shù)研究到業(yè)界層面的合作:從2019年起,斯坦福大學(xué)政策研究中心新開設(shè)一門法律和計(jì)算機(jī)科學(xué)交叉的課程“算法管理:在規(guī)制型國家中的人工智能”。(Administering by Algorithm: Artificial Intelligence in the Regulatory State)

微信圖片_20190328153627.jpg

(新開設(shè)算法管理課,圖片自斯坦福法學(xué)院官網(wǎng))

這門課程由斯坦福法學(xué)院教授David Freeman Engstrom、Daniel E. Ho,和加州最高法院大法官M(fèi)ariano-Florentino Cuéllar共同教授,并邀請(qǐng)了25位律師、計(jì)算機(jī)科學(xué)家和算法工程師來和大家共同探討政府機(jī)構(gòu)的技術(shù)研發(fā)和應(yīng)用。

微信圖片_20190328152125.jpg

(從左至右:斯坦福法學(xué)院教授Daniel E. Ho,David Freeman Engstrom和加州最高法院大法官M(fèi)ariano-Florentino Cuéllar)

  “我們現(xiàn)在面臨著專業(yè)技術(shù)和認(rèn)知上的不匹配。一方面在法律判決中我們需要法律機(jī)構(gòu)能解釋做出這樣決策的原因,另一方面,人工智能和機(jī)器學(xué)習(xí)的工作機(jī)制尚未完全透明,”斯坦福法學(xué)院教授David Freeman Engstrom說道。

課堂的學(xué)生來自計(jì)算機(jī)科學(xué)、法律、政治、哲學(xué)等多個(gè)專業(yè)背景,需要通過團(tuán)隊(duì)合作,完成三部分任務(wù)。

首先,團(tuán)隊(duì)對(duì)100個(gè)最重要的聯(lián)邦機(jī)構(gòu)進(jìn)行調(diào)查。當(dāng)發(fā)現(xiàn)有算法參與決策的例子時(shí),學(xué)生們開始測(cè)評(píng)這項(xiàng)技術(shù)具體歸屬哪一類:是屬于人工智能,還是機(jī)器學(xué)習(xí),還是一些其他的基礎(chǔ)技術(shù)?

第二步,學(xué)生集體評(píng)估近期或中期政府機(jī)構(gòu)中最可能部署人工智能的環(huán)節(jié)。

最后,轉(zhuǎn)向規(guī)范性問題探討:思考使用人工智能執(zhí)行監(jiān)管任務(wù)帶來的法律、政策分析和哲學(xué)層面的挑戰(zhàn)。例如,如何解決諸多程序性權(quán)利面臨被機(jī)器行政架空的威脅等。

微信圖片_20190328152129.jpg

(圖片來自斯坦福官網(wǎng))

課程結(jié)束后,學(xué)生將完成一份報(bào)告,探討行政機(jī)構(gòu)在不同層面該如何應(yīng)用人工智能技術(shù)。該報(bào)告將提交到無黨派獨(dú)立機(jī)構(gòu)美國行政會(huì)議(Administrative Conference of the United States),并有望影響未來行政機(jī)構(gòu)的政策。

本文轉(zhuǎn)自微信公眾號(hào)“硅谷密探”,作者Linyi。文章為作者獨(dú)立觀點(diǎn),不代表芥末堆立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者。

1、本文是 芥末堆網(wǎng)轉(zhuǎn)載文章,原文:硅谷密探
2、芥末堆不接受通過公關(guān)費(fèi)、車馬費(fèi)等任何形式發(fā)布失實(shí)文章,只呈現(xiàn)有價(jià)值的內(nèi)容給讀者;
3、如果你也從事教育,并希望被芥末堆報(bào)道,請(qǐng)您 填寫信息告訴我們。
來源:硅谷密探
芥末堆商務(wù)合作:王老師 18710003484
  • 斯坦福開設(shè)AI法律課,人工智能能否成為法律主體?分享二維碼