如果AI機(jī)器人殺了人類(lèi),這個(gè)鍋誰(shuí)來(lái)背?
不妨想象一下:今年是2023年,自動(dòng)駕駛汽車(chē)終于在我們的城市街道上行駛了。然而,這也是自動(dòng)駕駛汽車(chē)第一次撞擊一名行人并致其死亡,媒體對(duì)此進(jìn)行了廣泛報(bào)道。一個(gè)備受矚目的訴訟案很有可能發(fā)生,但是這個(gè)事件應(yīng)該適用什么樣的法律呢?
今天,基于英國(guó)布萊頓大學(xué)John Kingston的相關(guān)研究,我們得到了一些答案——他在這個(gè)剛剛開(kāi)始的法律領(lǐng)域做出了一些探索。他分析指出了汽車(chē)、計(jì)算機(jī)和法律領(lǐng)域人士應(yīng)該認(rèn)真對(duì)待的重要議題。如果他們還沒(méi)有開(kāi)始思考這些問(wèn)題,現(xiàn)在也是時(shí)候準(zhǔn)備了。
這場(chǎng)爭(zhēng)論的核心是,人工智能系統(tǒng)是否可以為其行為承擔(dān)刑事責(zé)任。Kingston說(shuō),以色列Ono Academic College的Gabriel Hallevy對(duì)這個(gè)問(wèn)題進(jìn)行了深入探討。
現(xiàn)行法律可能適用于AI的三個(gè)場(chǎng)景
刑事責(zé)任通常需要一個(gè)行動(dòng)和一個(gè)心理意圖(在法律術(shù)語(yǔ)中可以表述為一種犯罪行為和犯罪意圖)。Kingston說(shuō),Hallevy探索了三種可能適用于人工智能系統(tǒng)的場(chǎng)景。
第一種被稱(chēng)為“通過(guò)他者犯罪的肇事者”(perpetrator via another),患有精神疾病的人或動(dòng)物犯下罪行時(shí)適用,他們也因此被認(rèn)為是無(wú)辜的。但是,任何指使過(guò)精神病人或動(dòng)物的人都可以被追究刑事責(zé)任。例如,一條狗的主人命令其攻擊另一個(gè)人。
這對(duì)那些設(shè)計(jì)和使用智能機(jī)器的人來(lái)說(shuō)意義深遠(yuǎn)。Kingston說(shuō):“人工智能程序可以被認(rèn)為是無(wú)辜的代理,而軟件程序員或者用戶(hù)則可以被認(rèn)為是‘通過(guò)他者犯罪的肇事者’?!?/p>
第二種情形是所謂的“自然可能后果(natural probable consequence)”,當(dāng)人工智能系統(tǒng)的一般行為可能被不適當(dāng)?shù)赜糜趫?zhí)行犯罪行為時(shí)。
Kingston舉了一個(gè)例子,一個(gè)人工智能機(jī)器人在日本摩托車(chē)工廠里殺死了一名人類(lèi)工人。Kingston說(shuō):“機(jī)器人錯(cuò)誤地將這個(gè)員工認(rèn)定為對(duì)它執(zhí)行任務(wù)構(gòu)成威脅的人,并計(jì)算出消除這種威脅最有效的方法,即將其推入相鄰的操作機(jī)器。機(jī)器人用它強(qiáng)大的液壓臂把陷入驚恐的工人砸到機(jī)器上,并致其當(dāng)場(chǎng)死亡,然后繼續(xù)執(zhí)行工作任務(wù)?!?/p>
這里的關(guān)鍵問(wèn)題是,設(shè)計(jì)機(jī)器的程序員是否知道這個(gè)局面是機(jī)器使用可能帶來(lái)的后果。
第三種情況是直接責(zé)任(direct liability),這同時(shí)需要行動(dòng)和意圖。如果人工智能系統(tǒng)采取了導(dǎo)致犯罪行為的行動(dòng),或是在有義務(wù)采取行動(dòng)時(shí)未能采取行動(dòng),那么這就很容易證明了。
不過(guò)Kingston也表示,這一行為的意圖更難確定,但仍然是相關(guān)的?!俺傩旭偸且环N嚴(yán)格的責(zé)任犯罪,”他說(shuō)。“所以,根據(jù)Hallevy的說(shuō)法,如果一輛自動(dòng)駕駛汽車(chē)被發(fā)現(xiàn)在道路超速行駛,那么法律很可能會(huì)對(duì)當(dāng)時(shí)正在駕駛汽車(chē)的人工智能程序追究刑事責(zé)任?!痹谶@種情況下,車(chē)主可能不承擔(dān)責(zé)任。
人工智能可能為自己辯護(hù)
之后是辯護(hù)問(wèn)題。如果一個(gè)人工智能系統(tǒng)可能會(huì)承擔(dān)刑事責(zé)任,它會(huì)使用什么來(lái)辯護(hù)?
Kingston提出了一系列的可能性:一個(gè)存在故障的程序是否能像人類(lèi)一樣以精神錯(cuò)亂為由進(jìn)行辯護(hù)呢?一種被電子病毒感染的人工智能是否能以脅迫或醉酒為由進(jìn)行辯護(hù)?
這些辯護(hù)手段絕不是理論上的。Kingston 指出,在英國(guó),一些被指控電腦犯罪的人成功地辯稱(chēng),他們的電腦感染了惡意軟件,而這些惡意軟件恰恰是導(dǎo)致犯罪的罪魁禍?zhǔn)住?/p>
在一個(gè)案例中,一名被指控執(zhí)行“拒絕服務(wù)型攻擊”(Denial-of-Service Attacks)的少年電腦黑客聲稱(chēng),為此事件負(fù)責(zé)的應(yīng)該是特洛伊木馬程序,而這個(gè)木馬程序在被進(jìn)行初步分析之前已經(jīng)從電腦中自我清除了。Kingston說(shuō):“被告的律師成功地讓陪審團(tuán)相信,這樣的情況并不超出合理的質(zhì)疑?!?/p>
AI系統(tǒng)闖了禍,誰(shuí)來(lái)背鍋
最后,還有懲罰的問(wèn)題。誰(shuí)或者什么會(huì)因?yàn)橐粋€(gè)AI系統(tǒng)的直接責(zé)任而受到懲罰?這個(gè)懲罰會(huì)采取什么形式?就目前而言,這些問(wèn)題沒(méi)有答案。
然而在這種情況下,刑事責(zé)任不適用,必須通過(guò)民法來(lái)解決。那么,一個(gè)關(guān)鍵的問(wèn)題來(lái)了:人工智能系統(tǒng)是服務(wù)還是產(chǎn)品。
如果它是產(chǎn)品,那么產(chǎn)品設(shè)計(jì)立法將作為適用于這種情況的基礎(chǔ)保證。
如果它是服務(wù),則過(guò)失侵權(quán)行為適用。在這種情況下,原告通常必須通過(guò)三個(gè)要素來(lái)證明過(guò)失。第一個(gè)是被告有照顧義務(wù)——通常是很直接的,盡管在人工智能的情況下,很難評(píng)估護(hù)理標(biāo)準(zhǔn),Kingston說(shuō)。第二個(gè)因素是被告違反了這項(xiàng)義務(wù)。第三個(gè)因素是,這一違反行為對(duì)原告造成了傷害。如果這一切還有些含糊不清,人工智能系統(tǒng)的法律地位可能會(huì)隨著它們的能力變得更像人類(lèi)(甚至是超人)而改變。
有一件事是肯定的:在未來(lái)的幾年里,這一切對(duì)律師們(或者是取代他們?nèi)斯ぶ悄芟到y(tǒng))可能會(huì)有一些意思。
文章編輯:CobiNet(寧波)
本公司專(zhuān)注于電訊配件,銅纜綜合布線(xiàn)系列領(lǐng)域產(chǎn)品研發(fā)生產(chǎn)超五類(lèi),六類(lèi),七類(lèi)線(xiàn),屏蔽模塊,配線(xiàn)架及相關(guān)模塊配件的研發(fā)和生產(chǎn)。
?2016-2019寧波科博通信技術(shù)有限公司版權(quán)所有浙ICP備16026074號(hào)