如何看待無人駕駛技術產生的倫理道德問題

如何看待無人駕駛技術產生的倫理道德問題【值得了解】

本文根據TED科技視頻:無人駕駛會挑戰哪些道德倫理《自然》發表的自動駕駛倫理調查以及德國公佈的首份自動駕駛倫理道德標準,結合自身所學來探討如何規範無人駕駛產生的倫理道德問題。

從無人駕駛技術這一概念出現在公衆視線中,到近幾年人工智能的火熱,隨着技術的進步,無人駕駛普及給人類的感受是近在眼前。先不說把實驗室裏的無人駕駛系統設備搬到汽車上是不是放得下,就其系統本身的安全性、可靠性或許並不完善,再加上成本相對較低、體積較小的高性能計算設備的應用都成爲自動駕駛在近幾年是否能普及所要思考的問題。 其中系統的安全性還涉及到倫理道德的考量。

根據調查顯示,全世界每年有120萬人死於交通事故中,而無人駕駛技術的提出所要實現的目標就是減少90%的交通事故。事故的來源無疑是人的過錯。所以,自動駕駛的出現用來解放人類雙手,服務於人類,只是其中一個很小的方面,它的終極目標還是降低交通事故的發生率。試想,如果未來的某一天,自動駕駛進入人們的生活,想象有這樣一個場景:當自動駕駛汽車在行駛的過程中突然出現了機械故障,剎車失靈,這裏假設汽車是完全自動化的,沒有緊急制動功能,人無法操作,這時候前方有一羣闖紅燈的人(前幾年的中國式過馬路),而人行橫道上走着一位老爺爺,那麼,這時候的自動駕駛系統應作何選擇?是直接衝向人羣還是避開人羣撞向人行橫道行走的老爺爺,或者是撞牆犧牲車主。當然,這種假設是把最壞的情況列舉出來,但我們也不能保證這樣的低概率事件不會發生,先不說智能系統要如何選擇,如果不是自動駕駛,人在面對這種情形時會把車轉向哪個方向,毫無疑問,人肯定會本能的保護自己的生命安全,然後基於此來儘可能的降低傷害,但是在緊要關頭,很多人是來不及思考的,那種捨己保全大局者也只是極少部分的人。但當我們轉向智能系統,它所要做的選擇,就需要設計者甚至是使用者從道德層面來進行權衡考量。

 有人會說,既然自動駕駛技術還不夠成熟,那就等到它真正的足夠安全再普及不就好了。假如,現在的安全係數已經達到了90%,但還有10%需要經過50年甚至更久才能達到,那麼,這項技術該不該放棄,所以,這也是需要考慮的一個問題。而且按照目前交通事故死亡率計算,可能還要犧牲6千萬人的生命,因而,技術的發展刻不容緩。

我們再回到智能系統選擇的問題上,如果人行橫道上是一位壯漢,一個小孩或者恰巧是一個通緝犯,系統是否也應該進行“思考”計算,這樣的情況該如何界定?

2016年,麻省理工學院媒體實驗室的研究人員就做了這樣一項實驗。他們建立了一個名爲“道德機器”的網站,通過讓人們體驗13種不同的無人駕駛汽車場景來了解人們希望無人駕駛汽車有怎樣的行動模式。通過兩年的調查研究,他們分析了來自233個國家的230萬參與者的3961萬項決策,並發表在《自然》雜誌上的一項新研究中,結果表明:在機器如何對待我們的問題上,它判斷的標準是根據我們居住地的經濟和文化規範所決定的。例如,對於自動駕駛汽車該有怎樣的行爲模式,從文化角度來說,在偏重個人主義文化的國家往往更傾向於讓無人駕駛汽車保護孩子而非老人,對於偏重集體主義文化的國家則更重視老人的生命。研究人員認爲,這種分歧可能是制定有關自動駕駛汽車應如何行動的全球指導方針的最大挑戰。他們寫道:“對於政策制定者來說,保護更多的人和年輕人的偏好可能是最重要的考慮因素,因此個人主義和集體主義文化之間的差異可能會成爲制定通用機器倫理的一個重要障礙。除了文化差異以外,研究還發現,經濟學在該問題上也發揮着重要作用。例如,透過一個國家的經濟不平等程度,可以預測人們有多願意優先保護社會地位較高的人而不是社會地位較低的人。同樣地,對於亂穿馬路的問題,國家的人均國內生產總值和制度的力量與保護遵守交通規則的人的偏好程度相關。於是就有,來自較貧窮國家的人往往對橫穿馬路的行人更加寬容。研究人員認爲,在制定決策系統和法規時,自動駕駛汽車製造商和政治家需要考慮到所有的這些差異。這一點很重要:“儘管公衆的道德偏好不一定是道德政策的主要決定因素,但人們多大程度上願意購買自動駕駛汽車以及容忍它們上路行駛,將取決於所採用的道德規則的適合性。

畢竟系統是人爲設計的,當發生突發事件的時候,被設計好的系統應該具備有顧全大局的能力,從社會道德層面上講,犧牲少數應該爲最佳選擇。但這只是設計者本應有的職業道德思想,所設計出來的產品應該反應社會價值。這並不代表大衆,也不是所有人都有高尚的道德觀念,於是就有這樣一項調查:邊沁認爲車輛應該遵循功利主義道德,採取最小傷害原則。康德則認爲車輛應該遵循義不容辭原則,即車輛不能有意去傷害任何人,不能讓它有選擇性傷害人的“想法”,只需讓車輛順其自然直行,即使這樣可能會傷害到更多的人。結果顯示,大部分人支持邊沁,但事實上沒有人願意買這樣的車,他們都希望買到能夠保障自己安全的車,同時也希望別人能買將傷害降到最低的車,這就是所謂的社會道德困境。

19世紀英國經濟學家威廉 ·福斯特 ·勞埃德出版的一本宣傳冊中描述了這樣一個場景 :一羣農場主在一片農場放羊,每個農場主都擁有一定數量的羊,1-2只,所以這片土地的植被還可以再生長,如果一個農場偷偷主多放了一隻羊,他自身獲益更多,而其他人也沒什麼損失,如果每個農場主都擅自增加羊的數量,那麼土地就會變得不堪負重,所有人的利益都將受損 。把這個例子放在無人駕駛的問題上,公共土地就好比公共安全,農場主就是行人、乘客 、車主, 如果有人自作主張的把自身安全凌駕於他人利益之上,這些人可能就損害了能將損失降到最低的公共利益 ,無人駕駛存在的問題是沒有人去做決策 ,而製造商會本能的把行車程序設定成最大程度保護車主安全的樣子,然後行車程序會自主學習,於是這一過程就會增加對行人的潛在危險 ,假如羊變成機器羊,他會自己去喫草 ,農場主並不知道 ,這就是所謂的算法共享悲劇 。

通常情況下,社會政府會商討制定規則來解決社會道德困境問題,內容就是我們大部分人能接受什麼樣的後果以及對個人行爲施加什麼形式的限制,再通過監管和強制執行,就可以確定公共利益得到了保證 。用立法的方式 ,把無人駕駛技術的危險降到最低 ,這是所有人共同的意願 。但是再換一個角度想,作爲一個個體,選擇犧牲自己的這種方式也不是隻有一個人而已。 有人就不同意立法,說不會買這樣制定規則(使得車的損失最小)的車, 如果讓無人車遵循最小損失原則 ,我們人類的損失會更大 ,因爲我們放棄了這種遠超人類駕駛員的安全性。

至此,無人駕駛技術面臨的社會道德倫理問題,不單單只是設計者製造商需要考慮的,而是要團結整個社會,決定哪種折中方案是大家都可以接受的 ,要商討出可以有效推行這種權衡決策的方法 ,從各個方面說,作爲最終的使用者是很難抉擇的,同樣的,立法者也不能容易的判定是誰的過錯,這是道德的考量 。因此,如何處理道德困境,人們需要對自己的決定進行反思,對於動物保護者來說他們或許更願意保護馬路中間的動物而犧牲兒童,但研究發現,世界各地的人趨向於希望自動駕駛汽車優先保護人類而非動物,保護儘可能多的人,這也是德國公佈的首份自動駕駛倫理道德標準中的規定。這不是一個典型的例子,但大部分人會有這樣的想法,或者是保護乘客而不是行人,甚至相當多的人支持嚴懲橫穿馬路的行人 。無人車轉向還是直行已經不是核心問題了,關鍵是如何讓大衆在他們能夠接受的權衡方案中達成一致並付諸實施。當這些“危及生命的兩難困境出現時”,必須要有相關的國際準則。這些討論不應該侷限於工程師和政策制定者,畢竟這些問題會影響到每一個人。

20世紀40年代,俄國科幻小說家艾薩克·阿西莫夫的著作《機器人三大法則》中對機器人的定義是:機器人不能傷害人類 ;機器人不能違揹人的意願;機器人不能擅自傷害自己 。但隨着太多的事件不斷挑戰這些法則的底線, 阿西莫夫又引出第零號法則,即機器人不能傷害人類這個整體。所以,針對無人車立法不僅僅是技術問題 ,還是一個社會合作問題 。研究人員寫道:“在人類歷史上,我們從未允許過機器在沒有實時監控的情況下,在一瞬間自主決定誰該活誰該死。儘管不同文化之間存在差異,我們需要進行一次全球性的、包容性的對話,討論我們在機器決策的問題上有什麼樣的倫理道德,向設計道德算法的公司和監管它們的政策制定者表達我們的偏好,這些見解可以爲機器倫理的國際準則提供基礎”。

 

 

 

 

參考:

1.https://v.qq.com/x/cover/923digzon76cpdz/k0647ol0jhl.html

2.http://tech.163.com/18/1103/10/DVMBIIEF00098IEO.html

3.http://finance.sina.com.cn/stock/usstock/c/2018-05-14/doc-ihapkuvk4295063.shtml

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章