統一建模語言創建者Grady Booch談AI的未來

Grady Booch認爲,目前大多數人工智能系統都是關於邊緣信號的模式匹配和歸納推理,而不是真正的人工智能。在2018年舊金山QCon大會的第二天主題演講“建設魔法之地”(“Building the Enchanted Land”)中,他解釋了自己的觀點,即如今的人工智能是一個“帶有人工智能組件的系統工程問題”。

Grady Booch認爲,目前大多數人工智能系統都是關於邊緣信號的模式匹配和歸納推理,而不是真正的人工智能。在2018年舊金山QCon大會的第二天主題演講“建設魔法之地”(“Building the Enchanted Land”)中,他解釋了自己的觀點,即如今的人工智能是一個“帶有人工智能組件的系統工程問題”。

真正的人工智能使用決策和外展推理,這使得這些系統能夠推理和學習。目前的人工智能應用遠不能做到這一點;它們只是更大系統中的組件。

當代人工智能也不是最近纔出現的,因爲許多架構和算法都有幾十年的歷史。今天的不同之處在於計算能力的豐富性,以及大量標記數據的存在。事實上,使用數據來理解它,並將其轉換成正確的格式,通常比構建模型需要更多的工作。

現代人工智能

模式匹配是關於教一個有大量證據的系統去搜索什麼。今天,主要是圖像、視頻和音頻等信號。這些信號往往位於系統的邊緣,而不是中心。實際匹配是通過歸納推理完成的。歸納推理不是決策。它也不是從數據中建立理論的外展推理。

當代人工智能也不完全是當代的;現有的算法已經存在了幾十年。例如,第一個人造神經元誕生於1956年,所以神經水平計算的概念已經存在了很長時間。然而,現在我們還有了大量的標記數據,以及大量可用的計算能力。從本質上說,舊的算法現在仍很有實用性,但這些算法不是關於推理和學習的。推理是指在人類思維的某些層面上,歸納、演繹和誘導是混合在一起的。隨着時間的推移,學習也是必要的。沒有這些元素,它就不是真正的人工智能。

一點人工智能的歷史

人工智能在算法、發展、挫折和進步方面有很長的歷史。機器學習只是人工智能的一個方面,深度學習甚至不是其中的一個很窄的部分。對深度學習的強調掩蓋了這一事實。

在機器學習中,有監督學習、非監督學習、概率學習和非概率學習。

客觀地說,人工智能的發展經歷了許多春天和冬天。第一個冬天發生在20世紀50年代冷戰最激烈的時候。爲了把俄語翻譯成其他語言,人們對機器翻譯產生了濃厚的興趣。根據一個經常被引用的故事,他們把這樣的聲明,如“精神是自願的,但肉體是軟弱的”。翻譯成俄語後,結果是“伏特加很濃,但肉很爛”。語言學習比人們最初想象的要困難得多。

第二年春天,Newell和邏輯理論家Terry Winograd 提出了操縱小世界塊的想法,並取得了一些進展。當然,那是Marvin Minsky 宣稱三年後將出現人類智能水平的時候。再也沒有人提出這樣的要求了。計算能力和表達能力是這種方法的限制。

接下來是Ed Feigenbaum和其他人首先開發的基於規則的系統。基於黴素的醫學診斷就是這種方法的產物。Campbell Soup使用這些技術來捕捉它們的祕方,這樣它們就不會依賴於人類的記憶。問題是,基於規則的系統在幾百條規則之後就不能擴展了。Symbolics和其他公司試圖基於這些系統構建硬件。當這些系統的侷限性暴露得越來越明顯時,DARPA停止了資助,人工智能的冬天又來了。

人工智能的今天-深度學習

那麼我們現在處於什麼位置呢?

人工智能的進步正在成爲系統的一部分,所以它們不會像過去那樣消失。然而,我們應該記住懷疑者和實用主義者的觀點,比如Gary Marcus。無論深度學習的貢獻有多大,它都不是一個萬能的解決方案——它主要是在信號的層面上,只是一個更大系統的組成部分。

根據Booch的說法,這正是當前這一代開發人員發揮作用的地方。什麼是AI的核心開發者?他們會說:“哇。我有一些非常酷的新玩具,我可以把它們放進我的系統,讓它們變得更好。”它變成了一個系統問題。

就像開發者世界有自己的工具和環境一樣,AI世界也在開發自己的工具和環境。然而,尚不清楚隨着工具和環境的商業化,什麼工具和環境將在市場中佔據主導地位。

生命週期

構建人工智能系統與構建傳統軟件系統有着根本的不同。主要原因是數據的豐富性。你將在數據管理上花費比定義、構建和培訓系統多得多的時間。

你必須確定你的數據是否有偏見,以及你是否選擇了有意義的和適合社交的數據。這既是一個技術問題,也是一個倫理問題。解決這個問題需要一套與傳統軟件開發人員完全不同的技能。數據科學家必須從一開始就成爲系統生命週期的一部分。在定義解決方案之前,識別數據和用例需要很長時間。

硬件基礎設施

開發人員面臨的另一個挑戰是引入硬件來支持正在開發的軟件。例如,谷歌有自己的TPU來支持TensorFlow神經形態計算是當前正在探索的一個領域。IBM有一個名爲True North的項目,目的是製造模擬大腦神經元工作方式的芯片。

儘管如此,大腦和電腦之間還是存在着顯著的不同形式的因素。前者大約有1000億個神經元,使用20瓦的能量;後者有幾十億個晶體管,使用幾百瓦的功率。計算機系統可以比人腦更快地做一些事情,因爲人腦的運行頻率大約是20赫茲。芯片上的神經元本質上是二元的,權值在最後,概率輸出在1和0之間。大腦中的神經元會激增,這意味着存在與之相關的時間信號。

架構的影響

在推論和學習之間存在權衡。IBM試圖訓練一個機械手臂,它需要幾個小時的雲計算時間。最終,他們訓練了一個神經網絡,並將其安裝在一個實時工作的樹莓派上。也許不是所有的事情都必須在雲中完成,有些事情可以在邊緣完成,但是這是一個架構上的權衡。

另一個架構因素是人工智能不需要像其他領域那樣的精確度。因此,邊緣的計算可以不同於其他類型的系統。

正如John Gall在其著作《systemfunny》中所指出的那樣,每一個成功的大型系統都是從已經運行的小型系統發展而來的。通常,我們使用的這些組件是由其他人構建的,而我們構建的組件將被其他人使用。理解這一點是敏捷、DevOps和精益(可執行架構的持續發佈)的不同哲學之間共同的基礎。這與人工智能的世界觀截然不同。

作爲一名架構師,Booch研究了一些AI系統的架構:Watson和Alpha Go。

不管Watson在《Jeopardy》上給人留下多麼深刻的印象,它只是一個帶有人工智能組件的管道和過濾器架構。你得到一個聲明,得到一些潛在的搜索結果,做出一些假設,這些假設可以擴展到成百上千種可能性。然後你開始爲這些可能性建立證據。實際上,這是正向鏈接,用一點反向鏈接來尋找支持假設的證據。最後你把它減少到前三個選項。人工智能發生在組件內部。自然語言算法用於針對這些選擇作出響應。將AI組件組合在一起的是管道架構。實際上,管道是開源的UIMA。爲了在幾毫秒內完成這項工作,還需要大量的硬件。

AlphaGo的核心是一個卷積神經網絡。在這個網絡之外,它是完整的——下一步要做什麼的決定是建立在直接感知的基礎上,而不考慮過去的歷史。許多自動駕駛汽車使用這種方法。這類架構是反動的;你給它一個狀態,它會根據這個狀態做出推斷。然而,有些事情沒有歷史是做不到的。例如,一個人類司機看到孩子們在玩一個球,假設他們可能會跳到街上。大多數自動駕駛汽車無法做出這樣的判斷。

IBM一直在探索混合架構,比如一個名爲Self的系統,它結合了這些方法。梯度下降已經存在了幾十年。基於Agent的系統可以追溯到Marvin Minsky的Society of Mindblackboard系統。CMU的道聽途說實驗也是如此。IBM一直在探索基於代理的大型系統如何利用黑板與人工智能組件進行機會主義的通信。通過這種方法,他們已經能夠構建社交角色、社交機器人和社交空間。

倫理問題

伴隨着人工智能的巨大機遇,隨之而來的是與之相關的倫理問題。所有軟件系統都是力的解析,而這些力取決於你的領域。對於實時系統,比如飛機,錯過一個週期就是災難性的,這與Web系統完全不同。所以,你必須要弄清楚是什麼塑造了你所建造的東西。

其中一些純粹是業務力量,如成本、進度或任務。對於其他人來說,它是開發文化或工具。有時是性能、可靠性、可用性或任何其他的“什麼什麼性”。

隨着人工智能系統越來越多地出現倫理和法律問題。Booch經常說“每一行代碼都代表着一個倫理和道德的決定”。即使是參與特定系統構建的決策,或者是設計或編寫代碼的決策,也會有很大的影響。

結論

開發人工智能系統需要與傳統軟件開發相同的技能:清晰的抽象、關注點的分離、責任的均衡分配以及儘量保持事情簡單。你希望通過增量的和迭代的版本來擴展系統。

當然還有一些尚未解決的問題。其中之一是如何將符號、連接主義者和量子計算模型結合起來。Booch強烈反對DeepMind社區認爲人工智能和神經網絡將成爲系統的中心的觀點。

他呼籲大家注意莫拉維克悖論。人類大腦中負責信號處理、視覺皮層和聽覺皮層的神經元遠遠多於決策系統中的神經元。這種分裂出現在今天的混合系統中。圍繞它的是針對邊緣的人工智能,針對決策處理的符號系統爲和傳統軟件。

正如Alan Newell在一次人工智能冬季所觀察到的那樣,“計算機技術爲將智能行爲融入世界上所有角落提供了可能性。”有了它,我們就能建造一片神奇的土地。對Booch來說,軟件是一種無形的語言,它向硬件低聲講述着可能性的故事。今天,軟件開發人員是故事講述者,是那些將要建造魔法世界的人。

查看英文原文:Grady Booch on the Future of AI

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章