RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個(gè)全新的深度學(xué)習(xí)框架——計(jì)圖

倩倩 ? 來(lái)源:電子技術(shù)應(yīng)用ChinaAET ? 2020-03-26 15:50 ? 次閱讀

深度學(xué)習(xí)技術(shù)正廣泛應(yīng)用于人工智能的各個(gè)領(lǐng)域,如計(jì)算機(jī)視覺(jué)、機(jī)器翻譯、自然語(yǔ)言處理、智能機(jī)器人等,取得了前所未有的突破。當(dāng)前,一方面,隨著深度學(xué)習(xí)新技術(shù)的出現(xiàn)、任務(wù)復(fù)雜度的提高,易于擴(kuò)展同時(shí)保持高效的架構(gòu)成為發(fā)展趨勢(shì);另一方面,我國(guó)人工智能產(chǎn)業(yè)發(fā)展迅速,急需構(gòu)建自己的開(kāi)源深度學(xué)習(xí)生態(tài)。

清華大學(xué)計(jì)算機(jī)系胡事民教授研究團(tuán)隊(duì)提出了一個(gè)全新的深度學(xué)習(xí)框架——計(jì)圖(Jittor)。Jittor是一個(gè)采用元算子表達(dá)神經(jīng)網(wǎng)絡(luò)計(jì)算單元、完全基于動(dòng)態(tài)編譯(Just-in-Time)的深度學(xué)習(xí)框架。

圖1 “計(jì)圖”通過(guò)元算子融合實(shí)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)模型

深度學(xué)習(xí)采用的卷積神經(jīng)網(wǎng)絡(luò)是由算子(Operator)組成的一個(gè)計(jì)算網(wǎng)絡(luò)。由于架構(gòu)設(shè)計(jì)和不斷擴(kuò)充等原因,當(dāng)前深度學(xué)習(xí)框架有多達(dá)2000種算子,系統(tǒng)復(fù)雜,優(yōu)化和移植困難。Jittor則將算子運(yùn)算進(jìn)一步分解,形成了更加底層的三類20余種元算子閉包,目前神經(jīng)網(wǎng)絡(luò)常用算子均可以使用元算子的組合進(jìn)行表達(dá)。面向未來(lái)深度學(xué)習(xí)框架的發(fā)展趨勢(shì),Jittor利用元算子組合表達(dá)的優(yōu)勢(shì),提出統(tǒng)一計(jì)算圖進(jìn)行優(yōu)化,并從底層開(kāi)始設(shè)計(jì)了一個(gè)全新的動(dòng)態(tài)編譯架構(gòu)。該架構(gòu)支持多種編譯器,實(shí)現(xiàn)了所有代碼的即時(shí)編譯和動(dòng)態(tài)運(yùn)行,確保了實(shí)現(xiàn)和優(yōu)化分離,大幅提升了應(yīng)用開(kāi)發(fā)靈活性、可拓展性和可移植性。

圖2 “計(jì)圖”與其他平臺(tái)的計(jì)算圖特性對(duì)比

Jittor與國(guó)際主流平臺(tái)相比,具有多項(xiàng)先進(jìn)特性(圖2)。目前ResNet、VGG、SSD、DeepLab、LSGAN等多個(gè)網(wǎng)絡(luò)模型已經(jīng)在Jittor平臺(tái)實(shí)現(xiàn),可供用戶使用。與同類型框架相比,Jittor在收斂精度一致情況下,推理速度取得了10%-50%的性能提升(圖3)。

圖3 Jittor和PyTorch推理與訓(xùn)練速度對(duì)比

Jittor的研發(fā)得到了國(guó)家自然科學(xué)基金創(chuàng)新群體項(xiàng)目、北京信息科學(xué)與技術(shù)國(guó)家研究中心團(tuán)隊(duì)項(xiàng)目和清華-騰訊聯(lián)合實(shí)驗(yàn)室項(xiàng)目的資助。期望Jittor能為學(xué)界和業(yè)界提供一個(gè)靈活高效的深度學(xué)習(xí)平臺(tái),促進(jìn)人工智能的研究和應(yīng)用,賦能人工智能產(chǎn)業(yè)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NPU在深度學(xué)習(xí)中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心驅(qū)動(dòng)力之,已經(jīng)在眾多領(lǐng)域展現(xiàn)出了巨大的潛力和價(jià)值。NPU(Neural Processing Unit,神經(jīng)網(wǎng)絡(luò)處理單元)是專門(mén)為深度
    的頭像 發(fā)表于 11-14 15:17 ?503次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    能力,可以顯著提高圖像識(shí)別模型的訓(xùn)練速度和準(zhǔn)確性。例如,在人臉識(shí)別、自動(dòng)駕駛等領(lǐng)域,GPU被廣泛應(yīng)用于加速深度學(xué)習(xí)模型的訓(xùn)練和推理過(guò)程。 二、自然語(yǔ)言處理 自然語(yǔ)言處理(NLP)是深度學(xué)習(xí)
    的頭像 發(fā)表于 10-27 11:13 ?381次閱讀

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?590次閱讀

    PyTorch深度學(xué)習(xí)開(kāi)發(fā)環(huán)境搭建指南

    PyTorch作為種流行的深度學(xué)習(xí)框架,其開(kāi)發(fā)環(huán)境的搭建對(duì)于深度學(xué)習(xí)研究者和開(kāi)發(fā)者來(lái)說(shuō)至關(guān)重要
    的頭像 發(fā)表于 07-16 18:29 ?995次閱讀

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實(shí)現(xiàn)深度學(xué)習(xí)算法是個(gè)復(fù)雜但強(qiáng)大的過(guò)程,可以應(yīng)用于各種領(lǐng)域,如圖像識(shí)別、自然語(yǔ)言處理、時(shí)間序列預(yù)測(cè)等。這里,我將概述
    的頭像 發(fā)表于 07-14 14:21 ?2163次閱讀

    基于Python的深度學(xué)習(xí)人臉識(shí)別方法

    基于Python的深度學(xué)習(xí)人臉識(shí)別方法是個(gè)涉及多個(gè)技術(shù)領(lǐng)域的復(fù)雜話題,包括計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)
    的頭像 發(fā)表于 07-14 11:52 ?1249次閱讀

    深度學(xué)習(xí)中的無(wú)監(jiān)督學(xué)習(xí)方法綜述

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)領(lǐng)域的個(gè)重要分支,近年來(lái)在多個(gè)領(lǐng)域取得了顯著的成果,特別是在圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域。然而,
    的頭像 發(fā)表于 07-09 10:50 ?673次閱讀

    深度學(xué)習(xí)與nlp的區(qū)別在哪

    深度學(xué)習(xí)和自然語(yǔ)言處理(NLP)是計(jì)算機(jī)科學(xué)領(lǐng)域中兩個(gè)非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學(xué)習(xí)與NLP的區(qū)別。
    的頭像 發(fā)表于 07-05 09:47 ?907次閱讀

    深度學(xué)習(xí)常用的Python庫(kù)

    深度學(xué)習(xí)作為人工智能的個(gè)重要分支,通過(guò)模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來(lái)解決復(fù)雜問(wèn)題。Python作為種流行的編程語(yǔ)言,憑借其簡(jiǎn)潔的語(yǔ)法和豐富的
    的頭像 發(fā)表于 07-03 16:04 ?624次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的個(gè)重要分支,在過(guò)去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的
    的頭像 發(fā)表于 07-02 14:04 ?952次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練個(gè)
    的頭像 發(fā)表于 07-01 16:13 ?1223次閱讀

    深度學(xué)習(xí)編譯工具鏈中的核心——優(yōu)化

    等,需要調(diào)整優(yōu)化網(wǎng)絡(luò)中使用的算子或算子組合,這就是深度學(xué)習(xí)編譯工具鏈中的核心——優(yōu)化。優(yōu)化是指對(duì)深度
    的頭像 發(fā)表于 05-16 14:24 ?919次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>編譯工具鏈中的核心——<b class='flag-5'>圖</b>優(yōu)化

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈鶪PU

    ,這使得它比般處理器更高效。但是,很難對(duì) FPGA 進(jìn)行編程,Larzul 希望通過(guò)自己公司開(kāi)發(fā)的新平臺(tái)解決這個(gè)問(wèn)題。 專業(yè)的人工智能硬件已經(jīng)成為了個(gè)獨(dú)立的產(chǎn)業(yè),但對(duì)于什么是深度
    發(fā)表于 03-21 15:19

    為什么深度學(xué)習(xí)的效果更好?

    導(dǎo)讀深度學(xué)習(xí)是機(jī)器學(xué)習(xí)個(gè)子集,已成為人工智能領(lǐng)域的項(xiàng)變革性技術(shù),在從計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處
    的頭像 發(fā)表于 03-09 08:26 ?618次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?

    PatchMatch MVS求解器中深度估計(jì)的挑戰(zhàn)性問(wèn)題

    本文提出了全新學(xué)習(xí)型PatchMatch MVS框架,DS-PMNet,并嵌入了DeformSampler。這個(gè)框架能夠以端到端的方式
    的頭像 發(fā)表于 01-02 09:25 ?601次閱讀
    PatchMatch MVS求解器中<b class='flag-5'>深度</b>估計(jì)的挑戰(zhàn)性問(wèn)題
    RM新时代网站-首页