英特爾神經網絡處理器有什么特點?
英特爾 CEO Brian Krzanich 剛剛在《華爾街日報》舉辦的 D.Live 大會上發布了自家性能最強、專為深度學習而打造的神經網絡處理器 Nervana 。其聲稱這顆 ASIC 芯片可用于處理人工智能方面的工作(比如矩陣乘法和轉換),這是它與 CPU 和 GPU 這樣的通用計算硬件的最大區別。盡管當前英特爾在芯片架構上沒有太深入的動力,但 Nervana 創造者 Naveen Rao 在一篇單獨的博客文章中寫到:
其從一開始就能理解所涉及的操作和數據動作,因此該芯片可以不像今日的 CPU 或 GPU 那樣需要一個標準的緩存層次結構。
相反,其內存管理顯然是 100% 在軟件中完成的。Rao 聲稱,與主打通用計算的競品相比,這意味著該芯片能夠更好地壓榨芯片性能。
在更早的一篇博客文章中,該公司表示,由于僅包含金酸相關的硬件,Nervana 可以省去與緩存控制和相干邏輯有關的電路,從而囊括更多的計算資源。
在那時,Nervana 還計劃為該芯片搭配高達 32GB 的四堆棧 HBM 運存,且暗示已通過某種形式實現了神經網絡計算(NNP)。
NNP 的另一潛在創新,在于對某些數據類型的處理。英特爾聲稱 NNP 提供了一種全新的“拐點”(Flexpoint)數字格式。
該公司稱:“Flexpoint 允許通過固定點乘和加法來實現標量計算,也可借助共享指數來實現大動態范圍”。
該特性還使得 NNP 可以在給定核心面積上封裝進更多的操作部件,同時減少每個部件工作時的能耗。此外,每個 NNP 也可包含專門用于和其它神經網絡處理器通訊的片內互聯芯片。
在過去有關 Nervana Engine ASIC 的描述中,該公司計劃為每顆芯片上具有彈性計算力的內部或互聯連結點引入“六個雙向高帶寬鏈接”—— 要么增加用于任務的計算資源的數量、要么增加 NNP 集群的規模大小。
Krzanich 表示,當前英特爾正在制定數代 Nervana NNP 產品。而該公司新聞稿中也提到,未來這些產品有助于在 2020 年將深度學習成績提升百倍的目標。
最后,在一個單獨的播客節目中,Rao 表示,隨著產品的成熟,該公司還與 Facebook 在 NNP 上展開了合作,更多細節可留意該他們的后續報道。