Intel攜手Facebook打造首款神經網絡芯片
日前,Intel 宣布要與Facebook合作,推出首款專為機器學習設計的「Nervana」神經網絡處理(NNP)系列芯片,是一款專為人工智慧所設計的快速芯片,提供高效率的AI運算,預計在今年年底就能出貨。
「我們很興奮在向市場分享這款新世代AI硬體時,能跟Facebook 密切合作,共同分享技術見解!笽ntel 執行長布萊恩?科再奇(Brian Krzanich)在《華爾街日報》舉辦的WSJDLive全球科技會議上,宣布與Facebook 合作推出首款神經網絡處理系列芯片,且將在今年年底前出貨,并表示Intel 有信心能夠超越去年設定的目標,在2020 年時讓AI 效能提高100 倍。
“在我們向市場推出新一代人工智能硬件之際,能與Facebook密切合作,共享其技術見解,我們感到激動。”科再奇在英特爾的官方博客上寫道,“在華爾街日報舉辦的‘全球技術大會’ (WSJDLive)上,我談到認知和人工智能(AI)技術將會給行業帶來巨大轉變,也為市場帶來了巨大機會,到2020年,這兩個領域的收入將達到460億美元。英特爾會在硬件、數據算法和分析上進行研究和投資。”
英特爾稱,Facebook將為一款針對人工智能設計的芯片提供技術輸入。未來,英特爾只向包括Facebook在內的有限數量的合作伙伴提供人工智能芯片,獲得反饋信息,然后明年推出第二代芯片。
科再奇認為透過“Nervana”神經網絡處理器,可以為許多產業帶來高效率的 AI 運算能力,他也列舉了四項例子,像是在醫療保健 AI 可以讓早期診斷提高精準度、增進癌癥、帕金森病研究;社群媒體可以為客戶提供更個人化的服務;無人車未來能在汽車產業更快實現;AI 也能幫助研究人員掌握風速、水溫數據,可以有效預測颶風軌跡。
跟PC芯片不同,Nervana 神經網絡處理芯片是一款特殊的集成電路,是為訓練和執行深度學習演算法所打造,Intel 縮小了Nervana 神經網絡芯片的電路尺寸來減少運算時的耗能,將使用可處理大量數據的「Flexpoint」格式達到「大規模雙向數據傳輸」,意思是如果將大量的芯片連接在一起,就可成為一個巨大的虛擬芯片,能達到更大規模的深度學習模型,此架構目標,是要打造出能彈性應付深度學習的處理器,當處理高強度運算要求時,可以更有效率。
對于Facebook來說,它在2013年12月成立了人工智能實驗室,并請來了機器學習大牛、紐約大學教授楊立昆(Yann LeCun)作為該實驗室的負責人。但在硬件上,Facebook相對薄弱。在此之前,谷歌已經推出了針對深度神經網絡的TPU,這是谷歌專為加速深層神經網絡運算能力而研發的芯片,這款芯片也是AlphaGo成功的關鍵。這次與英特爾共同設計人工智能芯片,也算是Facebook補強硬件的一步。