英特爾NNP芯片家族迎來新成員,面向推理及應用的新品已正式商用

在今年7月,InfoQ曾對英特爾公司副總裁兼人工智能產品事業部總經理Naveen Rao進行過一次專訪,在採訪中,Naveen透露面向訓練及推理的NNP系列產品會在年底發佈。經過四個月的等待,我們迎來了這兩款新品。 2019年11月12日,2019英特爾人工智能峯會在美國舊金山召開。會上英特爾展示了一系列新產品進展,包括Nervana神經網絡處理器NNP系列新品:面向訓練的NNP-T1000和麪向推理的NNP-I1000,以及下一代Movidius Myriad 視覺處理單元(VPU),用於邊緣媒體、計算機視覺和推理應用。

NNP家族迎來新成員

Naveen Rao表示,新推出的英特爾 Nervana神經網絡處理器現已投入生產並完成客戶交付,是系統級人工智能解決方案的一部分。

英特爾 Nervana神經網絡推理處理器(Intel Nervana NNP-I),代號Spring Hill,基於10nm Ice Lake處理器架構,支持所有的主流深度學習框架,在ResNet50上的效率可達4.8 TOPs/W,功率範圍爲10W到50W之間 。具備高能效和低成本,且其外形規格靈活,非常適合在實際規模下運行高強度的多模式推理。

而英特爾 Nervana神經網絡訓練處理器(Intel Nervana NNP-T)採用的是臺積電16nm製程工藝,代號Spring Crest,擁有270億個晶體管,硅片總面積達680平方毫米,具有高可編程性,支持所有主流深度學習框架。據介紹,NNP-T在計算、通信和內存之間取得了平衡,不管是對於小規模羣集,還是最大規模的 pod 超級計算機,都可進行近乎線性且極具能效的擴展。

目前這兩款產品面向百度、 Facebook 等前沿人工智能客戶,並針對他們的人工智能處理需求進行了定製開發。

新一代Movidius VPU

新一代的Movidius Myriad視覺處理單元代號爲KEEM BAY,是一個高性能、低能耗VPU,其架構是專門爲邊緣定製的,主要是用作視覺和媒介媒體處理。

和上一代相比,新產品的性能提升了10倍,同時可以提供更高密度的、可擴展的AI的加速。英特爾方面表示,與競爭對手相比,KEEM BAY的性能比Nvidia TX2要高4倍,比ASCEND 310快1.25倍;從效率上來看,KEEM BAY要比Xavier高出4倍。

據介紹,新的英特爾 Movidius VPU 計劃於 2020 年上半年上市。

其他工具發佈

英特爾還發布了全新的英特爾DevCloud for the Edge,與英特爾Distribution of OpenVINO工具包共同解決開發人員的主要痛點,即在購買硬件前,能夠在各類英特爾處理器上嘗試、部署原型和測試AI 解決方案。OPENVINO可以讓客戶來編寫自己的神經網絡模型,實現性能最大化,並且能夠爲對架構的知識不甚瞭解的人,提供簡化的方法來實現更高的性能。

除了OPENVINO以外,DevCloud也是今天發佈的一大亮點。這是一款面向邊緣進行優化的產品,實際上已經在六個月前推出,通過DevCloud for the Edge,用戶可以將模型在DL Boost深度學習加速方案裏進行優化,同時獲得相應的硬件的配置建議,以找到最適合的、最高效的硬件配置。

結語

身爲老牌硬件大廠,英特爾的轉型之路一直備受關注,隨着用戶對數據處理、算力的要求進一步提升,英特爾也順應時代推出瞭如NNP系列芯片這樣的產品。Naveen Rao在演講中說:

“在計算、內存、互聯、封裝等領域,每一個要素都對用戶的體驗和性能產生影響…隨着人工智能的進一步發展,計算硬件和內存都將到達臨界點。如果要在該領域繼續取得巨大進展,專用型硬件必不可少。”

不難看出,專用型芯片市場仍有巨大的潛力有待挖掘,Naveen 更是大膽預測:2019年英特爾在AI領域的收入能夠達到35億美元。但由此引發的競爭也將會是更加激烈的,英偉達、AMD等一衆芯片廠商更是不會放過這樣的發展機會,未來專用芯片市場又將呈現出怎樣的局勢,實在令人期待。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章