RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

GPU 引領的深度學習

母豬會上樹 ? 2023-01-04 11:17 ? 次閱讀

早期的機器學習是基于搜索的,主要依賴于經(jīng)過一些優(yōu)化的蠻力方法。但隨著機器學習的成熟,它專注于加速成熟的統(tǒng)計方法和優(yōu)化問題。深度學習也出現(xiàn)了,它找到了一個不太可能的優(yōu)化來源。在這里,我們將了解現(xiàn)代機器學習如何找到新方法來帶來規(guī)模和速度。

人工智能的轉變

在本系列的第 1 部分中,我們探討了 AI 的一些歷史以及從 Lisp 到現(xiàn)代編程語言和深度學習等計算智能新范式的旅程。我們還討論了依賴于優(yōu)化搜索形式的早期人工智能應用、在海量數(shù)據(jù)集上訓練的現(xiàn)代神經(jīng)網(wǎng)絡架構,以及解決十年前認為不可能解決的問題。今天的重點是雙重的;進一步加速這些應用程序并將它們限制在智能手機等功率優(yōu)化環(huán)境中。

今天大多數(shù)加速的重點是深度學習。深度學習是一種神經(jīng)網(wǎng)絡架構,它依賴于許多層次的神經(jīng)網(wǎng)絡,其中層可以支持不同的特征檢測功能。這些深度神經(jīng)網(wǎng)絡依賴于可以輕松受益于并行性的向量運算。這些架構代表了神經(jīng)網(wǎng)絡層的分布式計算以及層內許多神經(jīng)元的并行計算的機會。

使用 GPU 加速機器學習

加速深度學習應用程序的不太可能的來源是圖形處理單元或 GPU。GPU 是一種特殊設備,用于加速輸出到顯示設備的幀緩沖區(qū)(內存)的構建。GPU 卸載幀緩沖區(qū)中的圖像渲染,而不是依賴處理器來執(zhí)行此操作。GPU 由數(shù)千個獨立內核組成,這些內核并行運行并執(zhí)行特定類型的計算,例如矢量數(shù)學。盡管最初的 GPU 專為視頻應用而設計,但人們發(fā)現(xiàn)它們還可以加速科學計算中的運算,例如矩陣乘法。

GPU 供應商樂于提供 API,允許開發(fā)人員將 GPU 處理集成到他們的應用程序中,但這項工作也可以通過適用于各種不同環(huán)境的標準包來完成。R 編程語言和環(huán)境包括與 GPU 配合使用以加速處理的包,例如gputools、gmatrix和gpuR。GPU 也可以通過各種庫(例如numba包或Theano )與 Python 一起使用。

這些軟件包使任何有意使用它們的人都可以使用 GPU 加速機器學習。但更專業(yè)的方法也在路上。2019 年,英特爾?以 20 億美元的價格收購了 Habana Labs。Habana Labs 為服務器中的各種機器學習加速器開發(fā)了定制芯片。在此之前,2017 年以 150 億美元的價格收購了 Mobileye 的自動駕駛芯片技術。

定制硅和說明

除了服務器和臺式機中的 GPU 加速之外,機器學習加速器正在超越傳統(tǒng)平臺,進入功率受限的嵌入式設備和智能手機。這些加速器采用多種形式,從 U 盤、API 到智能手機神經(jīng)網(wǎng)絡加速器,以及用于深度學習加速的矢量指令。

智能手機的深度學習

深度學習工具包已經(jīng)從 PC 發(fā)展到適用于更受限網(wǎng)絡的智能手機。TensorFlow Lite 和 Core ML 等框架已經(jīng)部署在移動設備上用于機器學習應用程序。Apple ?最近發(fā)布了 A12 仿生芯片,其中包含一個 8 核神經(jīng)網(wǎng)絡引擎,用于開發(fā)更節(jié)能的神經(jīng)網(wǎng)絡應用程序。這將擴展 Apple 智能手機上的深度學習應用程序。

Google 為 Android ? 8.1 發(fā)布了具有機器學習功能的神經(jīng)網(wǎng)絡 API (NNAPI)。這些在 Google Lens 應用程序的自然語言處理和圖像識別環(huán)境中用于 Google Assistant。NNAPI 類似于其他深度學習工具包,但專為 Android 智能手機環(huán)境及其資源限制而構建。

深度學習 USB

英特爾發(fā)布了其神經(jīng)計算棒的更新版本,以 USB 棒的形式加速深度學習應用程序。這可以被各種機器學習框架使用,例如 TensorFlow、Caffe 和 PyTorch。當 GPU 不可用時,該設備是一個有趣的選擇,而且還允許深度學習應用程序的快速原型設計。

深度學習說明

最后,雖然機器學習計算已從 CPU 轉移到 GPU,但英特爾已使用新指令優(yōu)化其至強指令集以加速深度學習。這些稱為 AVX-512 擴展的新指令(稱為向量神經(jīng)網(wǎng)絡指令或 VNNi)提高了卷積神經(jīng)網(wǎng)絡操作的吞吐量。

概括

GPU 在機器學習中的應用創(chuàng)造了為各種應用程序構建和部署大規(guī)模深度神經(jīng)網(wǎng)絡的能力。機器學習框架使構建深度學習應用程序變得簡單。但也不甘示弱,智能手機供應商已經(jīng)為受限應用程序集成了節(jié)能的神經(jīng)網(wǎng)絡加速器(以及用于自定義應用程序使用的 API)?,F(xiàn)在也可以找到其他加速器來卸載到 USB 硬件,許多新的初創(chuàng)公司正在挖掘這個加速器空間以用于未來的機器學習應用程序。

審核編輯hhy

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4729

    瀏覽量

    128890
  • 機器學習
    +關注

    關注

    66

    文章

    8406

    瀏覽量

    132561
  • 深度學習
    +關注

    關注

    73

    文章

    5500

    瀏覽量

    121111
收藏 人收藏

    評論

    相關推薦

    深度學習工作負載中GPU與LPU的主要差異

    ,一個新的競爭力量——LPU(Language Processing Unit,語言處理單元)已悄然登場,LPU專注于解決自然語言處理(NLP)任務中的順序性問題,是構建AI應用不可或缺的一環(huán)。 本文旨在探討深度學習工作負載中GPU
    的頭像 發(fā)表于 12-09 11:01 ?243次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>工作負載中<b class='flag-5'>GPU</b>與LPU的主要差異

    GPU深度學習中的應用 GPUs在圖形設計中的作用

    隨著人工智能技術的飛速發(fā)展,深度學習作為其核心部分,已經(jīng)成為推動技術進步的重要力量。GPU(圖形處理單元)在深度學習中扮演著至關重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?429次閱讀

    NPU在深度學習中的應用

    設計的硬件加速器,它在深度學習中的應用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學習算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和GPU
    的頭像 發(fā)表于 11-14 15:17 ?503次閱讀

    pcie在深度學習中的應用

    深度學習模型通常需要大量的數(shù)據(jù)和強大的計算能力來訓練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學習的需求。因此,GPU(圖形處理單元)和TPU
    的頭像 發(fā)表于 11-13 10:39 ?377次閱讀

    PyTorch GPU 加速訓練模型方法

    深度學習領域,GPU加速訓練模型已經(jīng)成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度學習框架,提供了豐富的工具和
    的頭像 發(fā)表于 11-05 17:43 ?543次閱讀

    GPU深度學習應用案例

    GPU深度學習中的應用廣泛且重要,以下是一些GPU深度學習應用案例: 一、圖像識別 圖像識別是
    的頭像 發(fā)表于 10-27 11:13 ?381次閱讀

    AI大模型與深度學習的關系

    AI大模型與深度學習之間存在著密不可分的關系,它們互為促進,相輔相成。以下是對兩者關系的介紹: 一、深度學習是AI大模型的基礎 技術支撐 :深度
    的頭像 發(fā)表于 10-23 15:25 ?648次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?184次閱讀

    FPGA做深度學習能走多遠?

    。例如,在數(shù)據(jù)中心中,可以將 FPGA 與 CPU 或 GPU 結合使用,根據(jù)不同的任務需求進行靈活的資源分配和協(xié)同計算,提高整個系統(tǒng)的性能和效率。 ? 算法優(yōu)化和創(chuàng)新:隨著深度學習算法的不斷發(fā)展和優(yōu)化
    發(fā)表于 09-27 20:53

    深度學習中的時間序列分類方法

    時間序列分類(Time Series Classification, TSC)是機器學習深度學習領域的重要任務之一,廣泛應用于人體活動識別、系統(tǒng)監(jiān)測、金融預測、醫(yī)療診斷等多個領域。隨著深度
    的頭像 發(fā)表于 07-09 15:54 ?876次閱讀

    深度學習與nlp的區(qū)別在哪

    深度學習和自然語言處理(NLP)是計算機科學領域中兩個非常重要的研究方向。它們之間既有聯(lián)系,也有區(qū)別。本文將介紹深度學習與NLP的區(qū)別。 深度
    的頭像 發(fā)表于 07-05 09:47 ?907次閱讀

    新手小白怎么學GPU云服務器跑深度學習?

    新手小白想用GPU云服務器跑深度學習應該怎么做? 用個人主機通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不動,如何實現(xiàn)更經(jīng)濟便捷的實現(xiàn)GPU云服務器
    發(fā)表于 06-11 17:09

    深度解析深度學習下的語義SLAM

    隨著深度學習技術的興起,計算機視覺的許多傳統(tǒng)領域都取得了突破性進展,例如目標的檢測、識別和分類等領域。近年來,研究人員開始在視覺SLAM算法中引入深度學習技術,使得
    發(fā)表于 04-23 17:18 ?1284次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學習</b>下的語義SLAM

    FPGA在深度學習應用中或將取代GPU

    現(xiàn)場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學習模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達 (Nvidia) 和 AMD 等公司的股價也大幅
    發(fā)表于 03-21 15:19

    為什么深度學習的效果更好?

    導讀深度學習是機器學習的一個子集,已成為人工智能領域的一項變革性技術,在從計算機視覺、自然語言處理到自動駕駛汽車等廣泛的應用中取得了顯著的成功。深度
    的頭像 發(fā)表于 03-09 08:26 ?618次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的效果更好?
    RM新时代网站-首页