RM新时代网站-首页

您好,歡迎來(lái)電子發(fā)燒友網(wǎng)! ,新用戶?[免費(fèi)注冊(cè)]

您的位置:電子發(fā)燒友網(wǎng)>電子百科>主機(jī)配件>顯卡>

GPU要超越CPU擠身一線主角還得靠AI

2016年05月03日 10:25 ithome 作者:佚名 用戶評(píng)論(0

  GPU應(yīng)用因AI開(kāi)始有了截然不同的新轉(zhuǎn)變,不只讓一些支援高度平行運(yùn)算應(yīng)用的高階GPU相繼問(wèn)世,現(xiàn)在連整套GPU深度學(xué)習(xí)專用服務(wù)器也搶灘登陸,要助企業(yè)加快AI應(yīng)用。

  

  AI人工智慧、虛擬/擴(kuò)增實(shí)境(VR/AR)與自動(dòng)駕駛技術(shù),在過(guò)去一年引起很高的市場(chǎng)關(guān)注,而一舉躍升成為當(dāng)前最火紅的熱門話題,特別是以深度學(xué)習(xí)(Deep Learning)為首的AI應(yīng)用,過(guò)去幾個(gè)月來(lái),因?yàn)镚oogle的AI電腦AlphaGo接連大敗歐洲和南韓國(guó)圍棋棋王,更在全世界吹起一股AI風(fēng)潮,使得現(xiàn)在不只有大型科技或網(wǎng)路公司要大力投資AI,就連各國(guó)政府也都要砸重金扶植AI產(chǎn)業(yè)。

  目前一些大型科技或網(wǎng)路業(yè)者,例如Google、Facebook、亞馬遜AWS、IBM、微軟與百度等,都陸續(xù)已在云端服務(wù)中融入AI服務(wù),做為電腦視覺(jué)、語(yǔ)音辨識(shí)和機(jī)器人等服務(wù)用途,甚至,也開(kāi)始有越來(lái)越多規(guī)模較小的新創(chuàng)或網(wǎng)路公司,如Api.ai、Drive. ai、Clarifai與MetaMind等,打算將AI開(kāi)始應(yīng)用在各行各業(yè)的領(lǐng)域上。

  GPU開(kāi)始在AI應(yīng)用逐漸嶄露頭角

  然而,決定這些AI服務(wù)能不能獲得更好發(fā)揮的關(guān)鍵,不只得靠機(jī)器學(xué)習(xí)的幫忙,甚至得借助深度學(xué)習(xí)的類神經(jīng)演算法,才能加深A(yù)I未來(lái)的應(yīng)用。這也使得近年來(lái),GPU開(kāi)始在一些AI應(yīng)用當(dāng)中逐漸嶄露頭角。這是因?yàn)椴徽撌茿I、VR/AR,還是自動(dòng)駕駛技術(shù)的應(yīng)用,雖然各有不同用途,但他們普遍都有一個(gè)共同的特色,都是需要大量平行運(yùn)算(Parallel Computing)的能力,才能當(dāng)作深度學(xué)習(xí)訓(xùn)練模型使用,或者是將圖形繪制更貼近真實(shí)呈現(xiàn)。

  所謂的平行運(yùn)算泛指的是將大量且密集的運(yùn)算問(wèn)題,切割成一個(gè)個(gè)小的運(yùn)算公式,而在同時(shí)間內(nèi)并行完成計(jì)算的一種運(yùn)算類型。而GPU則是最能夠?qū)⑵叫羞\(yùn)算發(fā)揮到極致的一大關(guān)鍵,這是因?yàn)镚PU在晶片架構(gòu)上,原本就被設(shè)計(jì)成適合以分散式運(yùn)算的方式,來(lái)加速完成大量且單調(diào)式的計(jì)算工作,例如圖形渲染等。所以,過(guò)去像是高細(xì)膩電玩畫(huà)面所需的大量圖形運(yùn)算,就成為了GPU最先被廣為運(yùn)用的領(lǐng)域,現(xiàn)在,VR/AR則是進(jìn)一步打算將原本就擅于繪圖運(yùn)算的GPU發(fā)揮得更淋漓盡致,來(lái)呈現(xiàn)出高臨場(chǎng)感的3D虛擬實(shí)境體驗(yàn)。

  當(dāng)然在游戲繪圖運(yùn)算外,后來(lái)GPU也被拿來(lái)運(yùn)用在需要大量同質(zhì)計(jì)算的科學(xué)研究中使用。甚至近年來(lái),GPU也開(kāi)始因?yàn)樯疃葘W(xué)習(xí)的關(guān)系,而在一些AI應(yīng)用當(dāng)中擔(dān)任重要角色。

  深度學(xué)習(xí)其實(shí)是機(jī)器學(xué)習(xí)類神經(jīng)網(wǎng)路的其中一個(gè)分支,深度學(xué)習(xí)本身是由很多小的數(shù)學(xué)元件組合成一個(gè)復(fù)雜模型,就像是腦神經(jīng)網(wǎng)路一般,可以建構(gòu)出多層次的神經(jīng)網(wǎng)路模型,來(lái)分別處理不同層次的運(yùn)算工作,這些神經(jīng)網(wǎng)路本身并不做判斷,只重覆相同計(jì)算工作,使得GPU在深度學(xué)習(xí)方面可以獲得很好的發(fā)揮,而隨著網(wǎng)路、云端和硬體技術(shù)成熟所帶來(lái)巨量的資料,也造就了現(xiàn)在所需完成訓(xùn)練的深度學(xué)習(xí)模型,比起以前更需要大量高階GPU的平行運(yùn)算能力,才足以應(yīng)付得了。

  GPU平行運(yùn)算性價(jià)比贏過(guò)CPU

  因?yàn)锳I、VR/AR與自駕車應(yīng)用需求提高后,也促使GPU重要性與日俱增,甚至為了因應(yīng)深度學(xué)習(xí)與AI應(yīng)用趨勢(shì),新世代GPU反而希望盡可能在晶片中裝入了更多電晶體和核心數(shù),來(lái)提高大量同性質(zhì)的資料計(jì)算能力。若是以Nvidia新的Tesla P100系列的GPU加速器產(chǎn)品來(lái)舉例說(shuō)明的話,在這個(gè)GPU加速器內(nèi)總共裝有3,584個(gè)CUDA核心數(shù)(單精度條件下),其內(nèi)含的電晶體數(shù)更一舉超過(guò)了150億顆,數(shù)量幾乎是前一代Tesla M40 GPU的翻倍,在雙精度條件下的浮點(diǎn)運(yùn)算能力,更高達(dá)有5.3 TFLOPs。

  當(dāng)然GPU之外,CPU本身也具有計(jì)算處理的能力,不過(guò)在處理平行運(yùn)算時(shí),***大學(xué)資工系副教授洪士灝認(rèn)為,GPU的CP值(性價(jià)比)比CPU還要高。這是因?yàn)镚PU原本就擅長(zhǎng)處理大量高同質(zhì)性的資料計(jì)算工作,而CPU則擅于通用型任務(wù)的資料處理,所以對(duì)于一些需要大量單調(diào)式運(yùn)算工作的應(yīng)用,就很適合使用GPU來(lái)執(zhí)行,例如利用深度學(xué)習(xí)神經(jīng)網(wǎng)路訓(xùn)練模型來(lái)實(shí)現(xiàn)AI應(yīng)用,或者是用繪圖運(yùn)算呈現(xiàn)VR/AR所需的高細(xì)膩畫(huà)面,都很適合用GPU的方式來(lái)進(jìn)行計(jì)算。

  另外從Nvidia官方所公布的一份CUDA C Programming Guide設(shè)計(jì)指南中也揭露了在2013年前的過(guò)去10年間,GPU與CPU兩者在單精度與雙精度浮點(diǎn)運(yùn)算(Floating-Point Operations Per Second,F(xiàn)LOPS)發(fā)展的比較差異。整體來(lái)看,GPU與CPU發(fā)展越到后期,兩者在浮點(diǎn)運(yùn)算處理能力的差距,有逐漸被拉大的趨勢(shì),這是因?yàn)樵降胶竺娌磐瞥龅男驴頖PU,更加強(qiáng)調(diào)浮點(diǎn)運(yùn)算的重要性,而盡可能要提高GPU浮點(diǎn)運(yùn)算的處理能力。所以,現(xiàn)在許多超級(jí)電腦內(nèi)都有使用GPU,來(lái)大幅提高浮點(diǎn)運(yùn)算的實(shí)力。

  GPU要超越CPU擠身一線主角還得靠AI

  從Nvidia官方所公布的一份CUDA C Programming Guide設(shè)計(jì)指南中也部分揭露了在2013年前的過(guò)去10年間,GPU與CPU兩者在單精度與雙精度浮點(diǎn)運(yùn)算發(fā)展的比較差異。

  整體來(lái)看,GPU與CPU發(fā)展越到后期,兩者在浮點(diǎn)運(yùn)算處理能力的差距,有逐漸被拉大的趨勢(shì),這是因?yàn)樵降胶竺娌磐瞥龅男驴頖PU,更加強(qiáng)了浮點(diǎn)運(yùn)算的能力。

非常好我支持^.^

(0) 0%

不好我反對(duì)

(0) 0%

( 發(fā)表人:包永剛 )

      發(fā)表評(píng)論

      用戶評(píng)論
      評(píng)價(jià):好評(píng)中評(píng)差評(píng)

      發(fā)表評(píng)論,獲取積分! 請(qǐng)遵守相關(guān)規(guī)定!

      ?
      RM新时代网站-首页