RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ONNX是什么?

丙丁先生的自學(xué)旅程 ? 來源:丙丁先生的自學(xué)旅程 ? 作者:丙丁先生的自學(xué)旅 ? 2024-05-15 09:49 ? 次閱讀

ONNX是一種開放格式,用于表示和交換深度學(xué)習(xí)模型。

ONNX,全稱為Open Neural Network Exchange,是由微軟和Facebook在2017年推出的一個開放標(biāo)準(zhǔn)。它的主要目的是促進不同深度學(xué)習(xí)框架之間的互操作性,使得AI模型能夠在不同的環(huán)境和平臺之間無縫遷移和部署。以下是關(guān)于ONNX的一些關(guān)鍵信息

- 框架無關(guān)性:ONNX定義了一套與環(huán)境和平臺無關(guān)的標(biāo)準(zhǔn)格式,這有助于在不同的深度學(xué)習(xí)框架之間遷移模型。
- 模型優(yōu)化:硬件和軟件廠商可以基于ONNX標(biāo)準(zhǔn)來優(yōu)化模型性能,從而使得所有支持ONNX標(biāo)準(zhǔn)的框架都能從中受益。
- 廣泛的支持:自從推出以來,ONNX得到了許多大型廠商和框架的支持,并逐漸成為表示深度學(xué)習(xí)模型的事實上的標(biāo)準(zhǔn)。
- 模型轉(zhuǎn)換:可以通過使用PyTorch的`torch.onnx.export`函數(shù)將PyTorch模型轉(zhuǎn)換成ONNX模型。這一過程涉及到對模型拓?fù)鋱D、計算節(jié)點屬性等基本概念的理解。

總的來說,ONNX提供了一個標(biāo)準(zhǔn)化的方式來表示神經(jīng)網(wǎng)絡(luò)模型,這對于模型的共享、部署和優(yōu)化都是非常有益的。通過使用ONNX,開發(fā)者可以更容易地在不同的深度學(xué)習(xí)框架和部署環(huán)境之間遷移和優(yōu)化模型。



審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    30728

    瀏覽量

    268886
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3226

    瀏覽量

    48807
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5500

    瀏覽量

    121111
收藏 人收藏

    評論

    相關(guān)推薦

    基于Pytorch訓(xùn)練并部署ONNX模型在TDA4應(yīng)用筆記

    電子發(fā)燒友網(wǎng)站提供《基于Pytorch訓(xùn)練并部署ONNX模型在TDA4應(yīng)用筆記.pdf》資料免費下載
    發(fā)表于 09-11 09:24 ?0次下載
    基于Pytorch訓(xùn)練并部署<b class='flag-5'>ONNX</b>模型在TDA4應(yīng)用筆記

    導(dǎo)入keras或者onnx模型到cubeai進行分析,為什么會報錯?

    請問我導(dǎo)入keras或者onnx模型到cubeai進行分析,為什么會報錯,而且沒有報錯內(nèi)容,cubeai版本9.0.0。換成8.1.0版本后報錯內(nèi)容是invalid network。該怎么入手解決。
    發(fā)表于 07-03 07:55

    用yolov5的best.pt導(dǎo)出成onnx轉(zhuǎn)化成fp32 bmodel后在Airbox上跑,報維度不匹配怎么處理?

    用官方的模型不出錯,用自己的yolov5訓(xùn)練出來的best.pt導(dǎo)出成onnx轉(zhuǎn)化成fp32 bmodel后在Airbox上跑,出現(xiàn)報錯: linaro@bm1684:~/yolov5/python
    發(fā)表于 05-31 08:10

    STM CUBE AI錯誤導(dǎo)入onnx模型報錯的原因?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.ai v8.0.0-19389) INTERNAL ERROR: list index out of range ```
    發(fā)表于 05-27 07:15

    ONNX Runtime支持龍架構(gòu),AI推理生態(tài)再添新翼

    近日,備受矚目的AI推理框架開源社區(qū)ONNX Runtime宣布推出支持龍架構(gòu)的新版本1.17.0,這一里程碑式的更新意味著龍芯平臺上的AI推理應(yīng)用開發(fā)與部署將更加便捷。
    的頭像 發(fā)表于 03-27 10:58 ?708次閱讀

    STMCubemx中cubeai導(dǎo)入onnx模型時壓縮失敗是怎么回事?

    stm32cubemxnetwork_output Neural Network Tools for STM32AI v1.6.0 (STM.ai v7.1.0-RC3) INTERNAL ERROR: Non positive value in (\'BATCH: -1\', \'CH: 224\', \'H: 3\', \'W: 224\') (Channel First) 在分析時也出現(xiàn)error,但是沒有報錯提示
    發(fā)表于 03-21 07:43

    cubemx ai導(dǎo)入onnx模型后壓縮失敗了怎么解決?

    cubemx ai導(dǎo)入onnx模型后壓縮失敗。請問我怎么解決
    發(fā)表于 03-19 07:58

    將yolov5s的模型轉(zhuǎn)成.onnx模型,進行cube-ai分析時報錯的原因?

    報錯顯示張量不能大于四維的,想請教解決一下,我再此之后通過onnx-simplifier對.onnx進行簡化之后再通過cube-ai進行分析還是出現(xiàn)上述報錯,懇求指導(dǎo),謝謝您!
    發(fā)表于 03-15 06:54

    使用cube-AI分析模型時報錯的原因有哪些?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.ai v8.0.0-19389) INTERNAL ERROR: list index out of range ```
    發(fā)表于 03-14 07:09

    yolov5轉(zhuǎn)onnx在cubeAI上部署失敗的原因?

    第一個我是轉(zhuǎn)onnx時 想把權(quán)重文件變小點 就用了半精度 --half,則說17版本不支持半精度 后面則是沒有縮小的單精度 但是顯示哪里溢出了···· 也不說是哪里、、。。。 到底能不能部署yolov5這種東西???? 也沒看見幾個部署在這上面......................
    發(fā)表于 03-14 06:23

    AI推理框架軟件ONNX Runtime正式支持龍架構(gòu)

    近日,知名AI推理框架開源社區(qū)ONNX Runtime正式發(fā)布支持龍架構(gòu)的版本1.17.0。
    的頭像 發(fā)表于 03-12 12:23 ?570次閱讀
    AI推理框架軟件<b class='flag-5'>ONNX</b> Runtime正式支持龍架構(gòu)

    微軟推出ONNX Runtime Web,利用WebGPU優(yōu)化瀏覽器機器學(xué)習(xí)性能

    作為微軟的 JavaScript 庫,ONNX Runtime Web 使得網(wǎng)絡(luò)開發(fā)者能在瀏覽器環(huán)境下部署機器學(xué)習(xí)模型,并提供多種硬件加速的后端支持。
    的頭像 發(fā)表于 03-05 14:23 ?1084次閱讀

    谷歌模型怎么用PS打開文件和圖片

    )或ONNX模型(.onnx)等。這些模型文件是二進制的,并且是為特定的機器學(xué)習(xí)框架設(shè)計的,而不是為圖像編輯軟件如PS設(shè)計的。
    的頭像 發(fā)表于 02-29 18:25 ?1435次閱讀

    微軟推出DirectML 1.13.1和ONNX Runtime 1.17預(yù)覽版,支持英特爾

    據(jù)稱,有了這項技術(shù)革新的推動力,微軟與英特爾緊密協(xié)作,更深入地與三星展開深度對話,共同致力于提高使用 DirectML 的AI相關(guān)應(yīng)用程序的處理效率。
    的頭像 發(fā)表于 02-02 14:21 ?936次閱讀

    通過新的ONNX導(dǎo)出器簡化模型導(dǎo)出流程

    大家好。我叫Manav Dalal,今天我將講解如何通過新的ONNX導(dǎo)出器簡化模型導(dǎo)出流程。如果你還沒有聽說過ONNX,它是一種用于表示機器學(xué)習(xí)模型的開放格式。它定義了一套通用的運算符,機器學(xué)習(xí)
    的頭像 發(fā)表于 01-10 09:45 ?934次閱讀
    通過新的<b class='flag-5'>ONNX</b>導(dǎo)出器簡化模型導(dǎo)出流程
    RM新时代网站-首页