人工智能倫理在東西方的8大差異

10 月 31 日,由北京智源人工智能研究院主辦的 2019 北京智源大會在國家會議中心開幕,會期兩天。智源大會是北京創建全球人工智能學術和創新最優生態的標誌性學術活動,定位於“內行的 AI 盛會”。 在下午的《人工智能倫理、安全與治理專題論壇》分論壇上,劍橋大學未來智能研究中心研究員Danit Gal 在演講中表示,由於在管理方式、文化、社會等方面的一些根深蒂固的差異,東西方在人工智能倫理方面存在很多不同點,其主要體現在可及性、責任性、控制性、公平性等方面。人工智能倫理在全球範圍內更好地分享和落地需要因地制宜,必須要考慮東西方、每個國家文化和社會的不同,不管你使用的是什麼樣的高端技術,我們需要在背後有一個標準,希望我們的技術在足夠強大的同時,也能確保人們以一種正確的方式來使用這些技術,這是我們的終極目標。

以下內容根據Danit Gal 演講速記進行整理,未經本人確認。

Danit Gal 演講主要圍繞人工智能倫理在東西方的差異展開。

實際上在很多情況下,東方是從上到下的管理方式,而西方是從下到上的管理方式。這兩個基本的差異會造成很多根深蒂固的文化及社會差異,體現在人工智能倫理方面,東西方亦有諸多不同。

第一點是可及性。我們要確保我們的技術是可及的、可用的,且爲全世界的程序開發者所使用。理想的情況下,是全球的人都能使用這樣的技術。舉個例子,我們不同的數據庫裏有不同的解決方案。比如說,在中國有不同的數據庫,不同的公司也有這樣的數據庫。如果這個公司想要獲得額外的數據,它需要向政府申請,由政府來批准。在西方,我們有不同的公司,有不同的數據庫,但谷歌的數據庫不會跟蘋果分享,雖然有些數據是可以分享的,但是他們的代碼是不會分享的。我個人覺得中國的網絡安全法更加重要,要優於西方的這些網絡安全法。

第二個是責任性。我們要保證我們這些行動和行動所造成的後果是可追溯的。我們要知道這個中間的操作機構應該負起什麼樣的責任以及誰應該負這樣的責任。一個好的例子就是我們現有的這些責任模型的不同。拿滴滴和優步舉個例子,旗下司機都發生了謀殺事件,發生這樣的事件後,滴滴關掉了它的平臺,重新改善之後引入了一個新的管理機制。因爲這個是政府強制他們這樣做的。

優步也這樣做,但它做的路線完全不同。他們只是確保相關的事件不會再次發生,優步並沒有把它的平臺徹底關掉,進行徹底的改善,他們只是進行了局部的“修飾”。比如說有些好的實踐,有些不好的實踐,他們避免了不好的實踐,保留了好的實踐。而中國政府會把一些APP列入“黑名單”,把它徹底刪除。這些APP如果想重新進入市場,需要經過政府的批准。

第三個是可制性。我們這些使用技術的人要能夠控制技術。舉個好的例子,對於“人對於機器控制的層級架構”,這裏的“人”是誰? 可能是一個公司的技術開發負責人,他應該是最終做決策的。但是在韓國,它有一個決策的層級,在一個特殊的場景中這個人可以做決策,但這個人的上級還有上級,上級還有上級,比如說可能CEO是做最終決策的。

因此,我們要了解,不同的社會有不同的架構,不同的社會當中最終做決策的那個人是不同的。我們在這個方面要作充分的考慮。

第四個是可解釋性。我們必須要知道我們這個技術是可以解釋的、可以被審覈的、可以找到因果關係的。比如說,AI做了一個決定,那誰應該負責任?AI應該負責任,還是開發者負責任?在一些國家,有觀點認爲,AI做出的決策是自動的,應該修改AI,應該讓AI負責任。但是,實際上開發這個AI的人不需要負責任。

在其他的國家,AI的開發者和AI的使用者都會負一定的責任。這些AI的使用者必須要確保他們對AI有充分的瞭解才能使用,所以,他們也需要承擔一定的責任。AI的開發者也需要承擔一定的責任,比如當有些不符合倫理的事情發生時,這些開發者必須要負一定的責任。這樣做的前提條件就是AI的開發者必須要有強大的理解力、強大的技術力、強大的控制力。所以這是一個閉環的追責制。有了可解釋性,我們就可以界定誰來負責任,到底是AI,還是人。但是要做到這一點非常不容易。

第五個是公平性。我們要確保我們的技術是公平的,不會造成一些偏見和不公平的情況。如果一個國家的總人口中有95%的人來自不同種族,而另外一個國家基本上人人都來自同一個種族,這兩個國家的人口種族分佈情況是不一樣的。因此,在全世界範圍內應用同樣的AI系統時,我們必須要進行不同的討論。對具有很大異致性的國家,在設計的時候,我們必須要有針對性的考慮。

第六個是以人爲中心。我們要確保我們的設計是以人爲中心的。在日本我們有一個例子,日本有一個“社會共同發展6.0”,談的是人的尊嚴以及技術發展具有同等的重要性。現在,我們必須要理解人的未知在哪裏,技術的未知在哪裏。

就像在南韓,他們有一個人機之間決策的架構和層級,而其他國家卻沒有這樣的架構。所以,我們要明確的是,技術的發展要有人的參與,如果沒有人的參與,這個技術就毫無意義。只有把人和技術放到一起的時候,才能爲這個技術更好地賦能,更加有力。

第七個是技術或者個人信息的保護。比如我們有一些個人的數據可能在網上都被濫用了。在中國也有數據濫用的狀況,爲此,中國政府出臺了很多的法律法規、很多的政策來保護人的信息安全。如果出現違法使用個人信息的情況,那這些信息一定要被刪除。在西方國家不太一樣。在西方,誰來保護人們以及“誰是人們”這樣的定義是不一樣的。這不意味着西方的人沒有隱私,而是我們的隱私定義不同。

最後一個是透明性,我們要確保技術的使用是透明的、可追溯的。它對用戶透明,還是對政府透明?還是對其他的公司透明?誰需要這麼高水平的透明性?

在中國,透明的級別非常直截了當,那就是要對政府透明。亞馬遜、谷歌和臉書之間的透明性如何?我們如何防止透明性不夠的狀況?假如在國會中,有人對扎克伯格說你們公司的透明性不夠,在這種情況下,我們誰對此負責,誰應該確保這種透明性?在中國我們是對政府透明,而不是對用戶透明。那我們如何確保不同的機構之間都是透明的?如果能做到足夠的透明,各個機構就能夠知道自己的數據被如何使用。

最後,我想跟大家分享三點:

首先全球通用的這些AI倫理原則,它的理論解釋其實是一樣的,但它們在各個國家落實的情況不一樣,但這種落實是一件好事,因爲我們有一個全球共享的AI倫理理念並不意味着每個國家都應該以同一種方法來行使這樣的技術或者是確保這樣的倫理,各個國家應該考慮自己的不同情況,需要因地制宜。

第二點是,連接東西方或者是彌合東西方的AI倫理鴻溝的下一步是應該基於我們各自國家的特殊的情況以及對於技術的不同的解釋,且把我們自己國家的情況放到國際的層面上進行討論。也就是說,我們要確保如何在全世界、在不同的國家以不同的方式來落實這樣的決策。可能這個國家有A模型,這個國家有B模型,我們使用了同樣的方法,使用了同樣的模型,但是各個國家對於這個體系的解釋是不一樣的。

第三點,爲了瞭解AI倫理的不同,我們必須要考慮文化和社會的不同。不管你使用的是什麼樣的高端的技術,我們需要在背後有一個標準,我們希望技術足夠強大,同時也能確保人們以一種正確的方式來使用這些技術,這是我們的終極目標。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章