圖像識別的安全隱患:只用一張圖片,你就可以實現隱身

  造就第435位講者 王琦

  碁震KEEN創始人兼CEO

  GeekPwn活動發起和創辦人

  大家看一下這個圖片,裏面有兩個人,一個人的周圍有一個紫色的框,上面寫了person,另外一個沒有。

  這其實是一個智能的監控攝像,使用YOLO v2這樣一個目標檢測算法正確識別出了左邊有一個人。可是右邊明明站了一個人卻沒有被標記出來,這到底出了什麼問題?

  大家能看到兩個人最大的區別就在於右邊的人其實掛了一個東西。

  這兩位都是來自比利時的大學生,他們製作了一個40×40公分的圖片,而這個圖片起到的作用就是對抗。目的就是讓目標檢測算法失效,使機器無法識別出右邊的人。

  也就是說,其實我們可以在智能監控裏實現隱形。

  目前,智能監控應用的場景比較多,日常監控裏可以檢測到一個人大概是什麼年紀,是男性還是女性,穿沒穿白襯衫,有沒有戴眼鏡等等,包括路上的車輛,也可以識別出來車的一些行爲。但是如果加上了這樣對抗的東西,它有可能就會失效。

  事實上,這樣的研究成果並不是第一次出現,但是這兩個大學生用一個非常有趣的方式把它展示出來,並且用了兩個字叫做隱身。

  對於普通人來講,這個隱身可能不能代表什麼,但是如果在一個關鍵的安全場景裏出現了隱身,可能就會帶來諸多安全隱患。這就是機器學習在安全場景裏可能面臨的一個情況。

  大家看一下這個視頻,放置第一個東西的時候,它已經被識別出是一個香蕉。當放到第二個特別顯眼的圖片的時候就完全失效,它幾乎100%認定這是一個烤麪包機。

  這是2017年12月Google的研究員做的一個實驗,針對的是VGG16模型的檢測。

  同樣是被欺騙,它的檢測是通過目標學習的方法實現的,但是機器學習面臨了一個問題,如果加入了另外一個比較顯眼的東西,機器就會產生誤判。

  這樣的錯誤無傷大雅,因爲直至今天,AI的發展其實非常初級,它有可能出現錯誤。

  但是放在安全領域,我們不認爲它是一個簡單的錯誤,爲什麼呢?

  我們做人工智能的目標是爲了讓機器越來越像人,可是在實驗中,我們明顯看到人不會犯錯,而機器會犯錯啊。

  出現的這種情況就需要我們就要反思一下,機器學習在這個過程當中到底出現了什麼問題?

  人類學習周圍的東西是通過視覺,從出生開始,我們就不斷地觀察學習周圍的人和物。但是,我們人也會犯錯,就像左邊這張圖片,人眼看上去會產生一種錯覺,認爲這些圖案不是平行的,而事實上它的確是平行的。

  從生物學的角度來說,它屬於是一種幻覺,關於人之所以出現這種問題的原因其實非常複雜,到現在還沒有定論。但如果把這個圖片交給機器來判斷是非常簡單的,它不會出錯。

  這時你會發現,左邊的圖片,人會犯錯,而機器不會,右邊的圖片,人不會犯錯,而機器會。

  這兩種截然不同的結果就是我們人類學習和機器學習的很大的一個差異。

  其實到目前爲止,我們對機器學習,對Alpha Go爲什麼能夠戰勝人類的原因並不太清楚,機器犯錯的原因我們也不知道。

  這種情況下,如果在一些關鍵的場景裏面,比如說飛機、汽車遇到這種場景,可能就會導致災難。這就是我們需要擔心的,我們也必須要了解它出錯的原因是什麼。鄭州婦科醫院×××:http://mobile.zzchxb110.com/

  機器會犯錯,機器也會“造假”

  在AlphaGo之前,機器學習的視覺已經發展得比較好了,它在錯誤判斷率,分類器這方面已經超過人類。但是在人工智能裏有不同領域的專家,包括腦神經、機器學習等等,每個領域其實是有衝突的。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章