(文章來(lái)源:智東西)
英特爾在舊金山舉行2019人工智能峰會(huì),推出代號(hào)為Keem Bay的下一代Movidius VPU,可用于邊緣媒體、計(jì)算機(jī)視覺(jué)和推理應(yīng)用,并計(jì)劃于明年上半年上市。此外,英特爾還在現(xiàn)場(chǎng)展示了Nervana神經(jīng)網(wǎng)絡(luò)處理器(NNP),并正式宣告商用。這是英特爾的NNP研發(fā)項(xiàng)目對(duì)外宣告三年后,正式開(kāi)始商用交付。
此外,英特爾副總裁兼人工智能產(chǎn)品事業(yè)部總經(jīng)理Naveen Rao、英特爾物聯(lián)網(wǎng)事業(yè)部副總裁兼視覺(jué)市場(chǎng)和渠道部門總經(jīng)理Jonathan Ballon在會(huì)上發(fā)表演講,介紹了英特爾最新的AI產(chǎn)品與相關(guān)技術(shù)進(jìn)展。Naveen Rao在現(xiàn)場(chǎng)演講中談到,隨著英特爾AI產(chǎn)品的更新與發(fā)布,AI解決方案的產(chǎn)品組合也將得到進(jìn)一步的提升與優(yōu)化,而這也有望在2019年創(chuàng)造超過(guò)35億美元的營(yíng)收。
我們先來(lái)說(shuō)說(shuō)最新的重量級(jí)產(chǎn)品——英特爾Movidius Myriad視覺(jué)處理單元(VPU),代號(hào)為Keem Bay,其經(jīng)過(guò)優(yōu)化可在邊緣端進(jìn)行工作負(fù)載的推理。性能方面,與上一代VPU相比,Keem Bay的推理性能提升了10倍以上,能效則可以達(dá)到競(jìng)品的6倍。同時(shí),英特爾還介紹到,Keem Bay的功耗僅為英偉達(dá)TX2的四分之一,后者的功耗約為30W。同時(shí),它比華為海思的昇騰310快1.25倍。
Jonathan Ballon在現(xiàn)場(chǎng)提到,該芯片擁有新的片上存儲(chǔ)器架構(gòu)。同時(shí),Keem Bay提供的Tops推理量是英偉達(dá)Xavier的4倍,在充分利用的情況下,該芯片可幫助客戶獲得50%的額外性能。“與同類競(jìng)品相比,Keem Bay的性能比GPU的性能更好,不僅功率、大小和成本都實(shí)現(xiàn)了一定程度的降低,而且還進(jìn)一步補(bǔ)充了我們完整的產(chǎn)品、工具和服務(wù)產(chǎn)品組合。”Jonathan Ballon補(bǔ)充說(shuō)到。此外,Keem Bay計(jì)劃將于2020年上半年上市。
今年,英特爾在面向AI推理和AI訓(xùn)練領(lǐng)域,相繼推出了NNP-T和NNP-I兩款Nervana神經(jīng)網(wǎng)絡(luò)處理器,專為大型數(shù)據(jù)中心而設(shè)計(jì)。同時(shí),Nervana神經(jīng)網(wǎng)絡(luò)處理器也是英特爾研發(fā)的首個(gè)針對(duì)復(fù)雜深度學(xué)習(xí)的專用ASIC芯片,主要提供給云端和數(shù)據(jù)中心客戶。實(shí)際上,英特爾早在2016年就已對(duì)外提出將啟動(dòng)Nervana神經(jīng)網(wǎng)絡(luò)處理器的項(xiàng)目研發(fā)。然而,英特爾在去年的AI大會(huì)中也尚未揭開(kāi)該系列處理器的神秘面紗,直到今年才面世,現(xiàn)在終于正式交付商用。
Naveen Rao說(shuō),作為系統(tǒng)級(jí)AI解決方案的一部分,Nervana神經(jīng)網(wǎng)絡(luò)訓(xùn)練處理器目前已經(jīng)投入生產(chǎn),并已完成客戶交付。其中,NNP-T采用臺(tái)積電16nm制程工藝,擁有270億個(gè)晶體管,硅片總面積達(dá)680平方毫米。應(yīng)用上,它據(jù)有高度的可編程性,并支持所有主流深度學(xué)習(xí)框架,如TensorFlow、PYTORCH 訓(xùn)練框架和C++深度學(xué)習(xí)軟件庫(kù)等。同時(shí),它還能夠?qū)崿F(xiàn)計(jì)算、通信和內(nèi)存之間的平衡,而且不管是針對(duì)小規(guī)模群集,還是最大規(guī)模的pod超級(jí)計(jì)算機(jī),它都可以進(jìn)行近乎線性且極具能效的擴(kuò)展。
一方面,NNP-I基于英特爾10nm Ice Lake處理器架構(gòu),同樣支持所有的主流深度學(xué)習(xí)框架,在ResNet50上的效率可達(dá)4.8 TOPs/W,功率范圍為10W到50W之間 。此外,它具有高能效和低成本,能將傳統(tǒng)的AI和多個(gè)引擎結(jié)合,實(shí)現(xiàn)高效率的AI推理工作負(fù)載,適合在實(shí)際規(guī)模下運(yùn)行高強(qiáng)度的多模式推理。在Naveen Rao看來(lái),隨著AI推理計(jì)算不斷發(fā)展,并逐漸向智能化邊緣轉(zhuǎn)移,英特爾的AI競(jìng)爭(zhēng)優(yōu)勢(shì)進(jìn)一步明顯。
“我們非常驕傲,能成為客戶背后的算力支柱,我們也將持續(xù)用創(chuàng)新和技術(shù)來(lái)幫助客戶布局AI。”Naveen Rao說(shuō)到,目前,英特爾的許多客戶已將其AI解決方案應(yīng)用于各個(gè)層級(jí)的設(shè)備,部署在本地?cái)?shù)據(jù)中心和超大規(guī)模公有云設(shè)施中。值得一提的是,這兩款Nervana神經(jīng)網(wǎng)絡(luò)處理器主要面向英特爾的前沿AI客戶,如百度和Facebook等,并針對(duì)這些企業(yè)的AI處理需求進(jìn)行定制開(kāi)發(fā)。
Naveen Rao說(shuō),截至目前,英特爾在無(wú)人機(jī)、機(jī)器人和自動(dòng)駕駛等設(shè)備的邊緣計(jì)算方面,已實(shí)現(xiàn)20%的同比增長(zhǎng)。而今年,在邊緣AI方面,英特爾推出了DevCloud for the Edge。它與OpenVINO工具包結(jié)合使用,可讓開(kāi)發(fā)人員在購(gòu)買硬件前,使用現(xiàn)有的工具和框架,免費(fèi)測(cè)試和優(yōu)化OpenVINO中用于英特爾硬件的模型,例如CPU和FPGA等,進(jìn)一步幫助開(kāi)發(fā)人員對(duì)邊緣設(shè)備進(jìn)行AI部署和測(cè)試。
Jonathan Ballon在現(xiàn)場(chǎng)演講中也提到,隨著DevCloud for the Edge的發(fā)布,客戶將能使用英特爾在夏季推出的Deep Learning Workbench工具進(jìn)行建模和仿真,并可免費(fèi)將其部署于開(kāi)發(fā)云中的各種硬件配置。實(shí)際上,早在六個(gè)月前,DevCloud for the Edge的beta版本就已經(jīng)推出,截至目前已經(jīng)有2700個(gè)客戶在使用。另一方面,OpenVINO支持從CPU、GPU、FPGA和英特爾Movidius神經(jīng)計(jì)算棒等一系列深度學(xué)習(xí)加速器。
在Naveen Rao看來(lái),隨著人工智能的進(jìn)一步發(fā)展,現(xiàn)有的計(jì)算硬件和內(nèi)存都將在未來(lái)達(dá)到臨界點(diǎn),同時(shí)專用型硬件的重要性也愈加明顯。因此,對(duì)英特爾來(lái)說(shuō),利用AI技術(shù)來(lái)提升業(yè)務(wù)成果,需要進(jìn)一步推出涵蓋硬件和軟件的多種技術(shù)組合。
(責(zé)任編輯:fqj)
-
英特爾
+關(guān)注
關(guān)注
61文章
10009瀏覽量
172339 -
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3848瀏覽量
91979
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論