資訊精選 |【深度學習框架大PK】褚曉文教授:五大深度學習框架三類神經網絡全面測評(23PPT)

本文來源於阿里雲-雲棲社區,原文點擊這裏


image

香港浸會大學褚曉文教授團隊在2016年推出深度學習工具評測的研究報告,並在2017年年初發布更新,引起廣泛關注。見新智元報道《 基準評測 TensorFlow、Caffe、CNTK、MXNet、Torch 在三類流行深度神經網絡上的表現(論文)》,2017年初版本的評測的主要發現可概括如下:

  • 總體上,多核CPU的性能並無很好的可擴展性。在很多實驗結果中,使用16核CPU的性能僅比使用4核或8核稍好。TensorFlow在CPU環境有相對較好的可擴展性。
  • 僅用一塊GPU卡的話,FCN上CaffeCNTK和Torch比MXNet和TensorFlow表現更好;CNN上MXNet表現出色,尤其是在大型網絡時;而Caffe和CNTK在小型CNN上同樣表現不俗;對於帶LSTM的RNN,CNTK速度最快,比其他工具好上5到10倍。
  • 通過將訓練數據並行化,這些支持多GPU卡的深度學習工具,都有可觀的吞吐量提升,同時收斂速度也提高了。多GPU卡環境下,CNTK平臺在FCN和AlexNet上的可擴展性更好,而MXNet和Torch在CNN上相當出色。
  • 比起多核CPU,GPU平臺效率更高。所有的工具都能通過使用GPU達到顯著的加速。
  • 在三個GPU平臺中(GTX980,GTX1080,Tesla K80中的一顆GK210),GTX1080由於其計算能力最高,在大多數實驗結果中性能最出色。
  • 某種程度上而言,性能也受配置文件的影響。例如,CNTK允許用戶調整系統配置文件,在運算效率和GPU內存間取捨,而MXNet則能讓用戶對cuDNN庫的自動設置進行調整。

2017年9月7日,中國工程院信息與電子工程學部主辦、浪潮集團承辦的首屆人工智能計算大會(AI Computing Conference,簡稱AICC)上,褚曉文教授發表題爲《Benchmarking State-of-the-Art Deep Learning Software Tools》的報告並接受了 新智元的獨家專訪。他在採訪中提到了這一項目的起源以及其中涉及的技術點,特別是深度學習網絡的計算原理等。

褚曉文教授介紹說,其團隊從2008年開始就開始從事GPU計算方面的科研工作,在2014到2015年的時候,開始接觸到深度學習這個領域,那個時候爲了開發一個並行的深度學習平臺,對整個深度學習的原理和應用都有了一個比較深入的瞭解,這是一個前期的基礎。

到了2016年的時候,他們就留意到,突然就很多深度學習平臺開始開源了。工具多了以後,他們通過與工業界的接觸瞭解到,大家經常會有一個困惑:工具很多,硬件也很多,各種各樣的GPU卡,從4、5千塊錢到4、5萬都有。該如何進行選擇?這個問題很複雜,也很難回答。所以他就開始跟學生一起,做了一些初步的比較的工作。

值得一提的是,這是一開源的項目,所有人都可以下載到代碼和測試的數據,文檔也寫的很清楚,大家都可以重複實驗。所以從發佈至今,褚曉文教授他們也收到了大量的反饋,並對測評結果進行了優化迭代。今年最新版本的測評報告會在近期公佈,新智元也將對此保持關注。

 展開全文

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章