如果AI機器人殺了人類,這個鍋誰來背?
不妨想象一下:今年是2023年,自動駕駛汽車終于在我們的城市街道上行駛了。然而,這也是自動駕駛汽車第一次撞擊一名行人并致其死亡,媒體對此進(jìn)行了廣泛報道。一個備受矚目的訴訟案很有可能發(fā)生,但是這個事件應(yīng)該適用什么樣的法律呢?
今天,基于英國布萊頓大學(xué)John Kingston的相關(guān)研究,我們得到了一些答案——他在這個剛剛開始的法律領(lǐng)域做出了一些探索。他分析指出了汽車、計算機和法律領(lǐng)域人士應(yīng)該認(rèn)真對待的重要議題。如果他們還沒有開始思考這些問題,現(xiàn)在也是時候準(zhǔn)備了。
這場爭論的核心是,人工智能系統(tǒng)是否可以為其行為承擔(dān)刑事責(zé)任。Kingston說,以色列Ono Academic College的Gabriel Hallevy對這個問題進(jìn)行了深入探討。
現(xiàn)行法律可能適用于AI的三個場景
刑事責(zé)任通常需要一個行動和一個心理意圖(在法律術(shù)語中可以表述為一種犯罪行為和犯罪意圖)。Kingston說,Hallevy探索了三種可能適用于人工智能系統(tǒng)的場景。
第一種被稱為“通過他者犯罪的肇事者”(perpetrator via another),患有精神疾病的人或動物犯下罪行時適用,他們也因此被認(rèn)為是無辜的。但是,任何指使過精神病人或動物的人都可以被追究刑事責(zé)任。例如,一條狗的主人命令其攻擊另一個人。
這對那些設(shè)計和使用智能機器的人來說意義深遠(yuǎn)。Kingston說:“人工智能程序可以被認(rèn)為是無辜的代理,而軟件程序員或者用戶則可以被認(rèn)為是‘通過他者犯罪的肇事者’?!?/p>
第二種情形是所謂的“自然可能后果(natural probable consequence)”,當(dāng)人工智能系統(tǒng)的一般行為可能被不適當(dāng)?shù)赜糜趫?zhí)行犯罪行為時。
Kingston舉了一個例子,一個人工智能機器人在日本摩托車工廠里殺死了一名人類工人。Kingston說:“機器人錯誤地將這個員工認(rèn)定為對它執(zhí)行任務(wù)構(gòu)成威脅的人,并計算出消除這種威脅最有效的方法,即將其推入相鄰的操作機器。機器人用它強大的液壓臂把陷入驚恐的工人砸到機器上,并致其當(dāng)場死亡,然后繼續(xù)執(zhí)行工作任務(wù)?!?/p>
這里的關(guān)鍵問題是,設(shè)計機器的程序員是否知道這個局面是機器使用可能帶來的后果。
第三種情況是直接責(zé)任(direct liability),這同時需要行動和意圖。如果人工智能系統(tǒng)采取了導(dǎo)致犯罪行為的行動,或是在有義務(wù)采取行動時未能采取行動,那么這就很容易證明了。
不過Kingston也表示,這一行為的意圖更難確定,但仍然是相關(guān)的。“超速行駛是一種嚴(yán)格的責(zé)任犯罪,”他說?!八?,根據(jù)Hallevy的說法,如果一輛自動駕駛汽車被發(fā)現(xiàn)在道路超速行駛,那么法律很可能會對當(dāng)時正在駕駛汽車的人工智能程序追究刑事責(zé)任?!痹谶@種情況下,車主可能不承擔(dān)責(zé)任。
人工智能可能為自己辯護(hù)
之后是辯護(hù)問題。如果一個人工智能系統(tǒng)可能會承擔(dān)刑事責(zé)任,它會使用什么來辯護(hù)?
Kingston提出了一系列的可能性:一個存在故障的程序是否能像人類一樣以精神錯亂為由進(jìn)行辯護(hù)呢?一種被電子病毒感染的人工智能是否能以脅迫或醉酒為由進(jìn)行辯護(hù)?
這些辯護(hù)手段絕不是理論上的。Kingston 指出,在英國,一些被指控電腦犯罪的人成功地辯稱,他們的電腦感染了惡意軟件,而這些惡意軟件恰恰是導(dǎo)致犯罪的罪魁禍?zhǔn)住?/p>
在一個案例中,一名被指控執(zhí)行“拒絕服務(wù)型攻擊”(Denial-of-Service Attacks)的少年電腦黑客聲稱,為此事件負(fù)責(zé)的應(yīng)該是特洛伊木馬程序,而這個木馬程序在被進(jìn)行初步分析之前已經(jīng)從電腦中自我清除了。Kingston說:“被告的律師成功地讓陪審團(tuán)相信,這樣的情況并不超出合理的質(zhì)疑?!?/p>
AI系統(tǒng)闖了禍,誰來背鍋
最后,還有懲罰的問題。誰或者什么會因為一個AI系統(tǒng)的直接責(zé)任而受到懲罰?這個懲罰會采取什么形式?就目前而言,這些問題沒有答案。
然而在這種情況下,刑事責(zé)任不適用,必須通過民法來解決。那么,一個關(guān)鍵的問題來了:人工智能系統(tǒng)是服務(wù)還是產(chǎn)品。
如果它是產(chǎn)品,那么產(chǎn)品設(shè)計立法將作為適用于這種情況的基礎(chǔ)保證。
如果它是服務(wù),則過失侵權(quán)行為適用。在這種情況下,原告通常必須通過三個要素來證明過失。第一個是被告有照顧義務(wù)——通常是很直接的,盡管在人工智能的情況下,很難評估護(hù)理標(biāo)準(zhǔn),Kingston說。第二個因素是被告違反了這項義務(wù)。第三個因素是,這一違反行為對原告造成了傷害。如果這一切還有些含糊不清,人工智能系統(tǒng)的法律地位可能會隨著它們的能力變得更像人類(甚至是超人)而改變。
有一件事是肯定的:在未來的幾年里,這一切對律師們(或者是取代他們?nèi)斯ぶ悄芟到y(tǒng))可能會有一些意思。
文章編輯:CobiNet(寧波)
本公司專注于電訊配件,銅纜綜合布線系列領(lǐng)域產(chǎn)品研發(fā)生產(chǎn)超五類,六類,七類線,屏蔽模塊,配線架及相關(guān)模塊配件的研發(fā)和生產(chǎn)。
?2016-2019寧波科博通信技術(shù)有限公司版權(quán)所有浙ICP備16026074號