RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Vision Board系列教程 | 神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練及部署指南

RT-Thread官方賬號 ? 2024-10-17 08:07 ? 次閱讀

準(zhǔn)備工作

win10/11系統(tǒng)的電腦

建議1張FAT32格式的SD

建議自備1根Type-C數(shù)據(jù)線

在正式進行開發(fā)前,需要安裝下圖中勾選的四個軟件?。。?/i>

bc18ed40-8c1b-11ef-b5cd-92fbcf53809c.png

注冊賬號并創(chuàng)建Edge Impulse工程

打開Edge Impluse網(wǎng)站,注冊登錄。隨后在項目標(biāo)簽頁創(chuàng)建新項目:

bc43e298-8c1b-11ef-b5cd-92fbcf53809c.png

上傳訓(xùn)練集

按照以下步驟,依次點擊Dashboard->Add existing data->Upload data。

bc74450a-8c1b-11ef-b5cd-92fbcf53809c.pngbc9e4d32-8c1b-11ef-b5cd-92fbcf53809c.png

注意:若未在數(shù)據(jù)集中對圖片進行l(wèi)abel注釋(可參考官方文章),需要手動進行添加標(biāo)簽,或直接選擇Enter label進行標(biāo)簽定義。分3次單獨上傳3個不同圖片的文件夾,并添加label為ship、truck和plane。

生成特征

點擊左側(cè)Impulse design->Create Impulse,依次點擊Add a processing block、Add a learning block進行輸入數(shù)據(jù)對象、訓(xùn)練模型的選擇,并點擊保存。(Add 帶星標(biāo)的即可)

bcb4765c-8c1b-11ef-b5cd-92fbcf53809c.png

繼續(xù)點擊左側(cè)Image,Color depth選擇RGB,點擊保存。接下來會自動跳轉(zhuǎn)到生成特征界面,點擊生成特征按鈕,等待特征生成,結(jié)束后會有三維圖像顯示。

bccdee34-8c1b-11ef-b5cd-92fbcf53809c.png

遷移訓(xùn)練

點擊左側(cè)Transfer learning按鈕,依次設(shè)置訓(xùn)練參數(shù):訓(xùn)練周期、學(xué)習(xí)率等參數(shù)。隨后選擇自己實驗最符合的訓(xùn)練模型(默認(rèn)選第一個),點擊開始訓(xùn)練。

bcf17bec-8c1b-11ef-b5cd-92fbcf53809c.png

如果最后的結(jié)果和準(zhǔn)確率不滿足自己的實驗要求,可嘗試重新訓(xùn)練,重新更改參數(shù)及訓(xùn)練模型。

bd22f5d2-8c1b-11ef-b5cd-92fbcf53809c.png

在Vision Board上部署

在左側(cè)點擊Deployment,搜索OpenMV library,點擊Build,等待固件生成。

bd48bfd8-8c1b-11ef-b5cd-92fbcf53809c.png

下載下來的壓縮文件解壓("trained.tflite"、"labels.txt"、"ei_image_classification.py"),將ei_image_classification.py改名為main.py,隨后將3個文件全部復(fù)制到sd卡中去(取下SD卡,使用讀卡器將3個文件復(fù)制到sd卡)。

bd6d7ab2-8c1b-11ef-b5cd-92fbcf53809c.png

用Type-C線連接Vision Board USB-OTG口,隨后將sd卡中的main.py拖入OpenMV IDE中,打開并運行,此時可以在串口終端看見識別的結(jié)果及準(zhǔn)確率。

bd896128-8c1b-11ef-b5cd-92fbcf53809c.png

使用虛擬U盤功能

點擊RT-Thread Setting-->TinyUSB->配置項

bdadf0b0-8c1b-11ef-b5cd-92fbcf53809c.png

在TinyUSB選項處依次點開USING USB device->Using Mass Storage Class(MSC),將The name of the block device used by MSC中的內(nèi)容更改為sd,隨后保存。重新點擊編譯,編譯完成后即可燒錄到開發(fā)板。(由于文件較大,時間可能會比較長)

注意:燒錄需要將Type-C線插到USB-DBG口,燒錄完成后再將線插到USB-OTG口,使能USB復(fù)合設(shè)備后,每次第一次上電需要先等待彈出U盤后再連接 OpenMV IDE??!否則會卡死!!

bddcf8f6-8c1b-11ef-b5cd-92fbcf53809c.png

彈出U盤后就可以把生成OpenMV固件拖至u盤中,隨后連接OpenMV IDE,即可體驗自己訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    深層神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練:過擬合優(yōu)化

    為了訓(xùn)練出高效可用的深層神經(jīng)網(wǎng)絡(luò)模型,在訓(xùn)練時必須要避免過擬合的現(xiàn)象。過擬合現(xiàn)象的優(yōu)化方法通常有三種。
    的頭像 發(fā)表于 12-02 14:17 ?2736次閱讀
    深層<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>模型</b>的<b class='flag-5'>訓(xùn)練</b>:過擬合優(yōu)化

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.
    發(fā)表于 03-20 11:32

    關(guān)于BP神經(jīng)網(wǎng)絡(luò)預(yù)測模型的確定??!

    請問用matlab編程進行BP神經(jīng)網(wǎng)絡(luò)預(yù)測時,訓(xùn)練結(jié)果很多都是合適的,但如何確定最合適的?且如何用最合適的BP模型進行外推預(yù)測?
    發(fā)表于 02-08 14:23

    請問Labveiw如何調(diào)用matlab訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型呢?

    我在matlab中訓(xùn)練好了一個神經(jīng)網(wǎng)絡(luò)模型,想在labview中調(diào)用,請問應(yīng)該怎么做呢?或者labview有自己的神經(jīng)網(wǎng)絡(luò)工具包嗎?
    發(fā)表于 07-05 17:32

    【AI學(xué)習(xí)】第3篇--人工神經(jīng)網(wǎng)絡(luò)

    `本篇主要介紹:人工神經(jīng)網(wǎng)絡(luò)的起源、簡單神經(jīng)網(wǎng)絡(luò)模型、更多神經(jīng)網(wǎng)絡(luò)模型、機器學(xué)習(xí)的步驟:訓(xùn)練與預(yù)
    發(fā)表于 11-05 17:48

    matlab實現(xiàn)神經(jīng)網(wǎng)絡(luò) 精選資料分享

    習(xí)神經(jīng)神經(jīng)網(wǎng)絡(luò),對于神經(jīng)網(wǎng)絡(luò)的實現(xiàn)是如何一直沒有具體實現(xiàn)一下:現(xiàn)看到一個簡單的神經(jīng)網(wǎng)絡(luò)模型用于訓(xùn)練
    發(fā)表于 08-18 07:25

    如何使用stm32cube.ai部署神經(jīng)網(wǎng)絡(luò)

    如何用stm32cube.ai簡化人工神經(jīng)網(wǎng)絡(luò)映射?如何使用stm32cube.ai部署神經(jīng)網(wǎng)絡(luò)?
    發(fā)表于 10-11 08:05

    輕量化神經(jīng)網(wǎng)絡(luò)的相關(guān)資料下載

    原文鏈接:【嵌入式AI部署&基礎(chǔ)網(wǎng)絡(luò)篇】輕量化神經(jīng)網(wǎng)絡(luò)精述--MobileNet V1-3、ShuffleNet V1-2、NasNet深度神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 12-14 07:35

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    network,DBN)[24], 從此拉開了深度學(xué)習(xí)大幕。隨著深度學(xué)習(xí)理論的研究和發(fā)展,研究人員提 出了一系列卷積神經(jīng)網(wǎng)絡(luò)模型。為了比較不同模型 的質(zhì)量,收集并整理了文獻中
    發(fā)表于 08-02 10:39

    如何使用TensorFlow將神經(jīng)網(wǎng)絡(luò)模型部署到移動或嵌入式設(shè)備上

    有很多方法可以將經(jīng)過訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型部署到移動或嵌入式設(shè)備上。不同的框架在各種平臺上支持Arm,包括TensorFlow、PyTorch、Caffe2、MxNet和CNTK,如And
    發(fā)表于 08-02 06:43

    卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練步驟

    卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練步驟? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是一種常用的深度學(xué)習(xí)算法,廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等諸多
    的頭像 發(fā)表于 08-21 16:42 ?1704次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測模型 生成卷積神經(jīng)網(wǎng)絡(luò)模型

    cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)預(yù)測模型 生成卷積神經(jīng)網(wǎng)絡(luò)模型? 卷積
    的頭像 發(fā)表于 08-21 17:11 ?1231次閱讀

    PyTorch神經(jīng)網(wǎng)絡(luò)模型構(gòu)建過程

    PyTorch,作為一個廣泛使用的開源深度學(xué)習(xí)庫,提供了豐富的工具和模塊,幫助開發(fā)者構(gòu)建、訓(xùn)練部署神經(jīng)網(wǎng)絡(luò)模型。在神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-10 14:57 ?492次閱讀

    怎么對神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)是一個復(fù)雜的過程,涉及到多個步驟和考慮因素。 引言 神經(jīng)網(wǎng)絡(luò)是一種強大的機器學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、自然語言處理、語音識別等領(lǐng)域。然而,隨著時間的推移,數(shù)據(jù)分布可
    的頭像 發(fā)表于 07-11 10:25 ?448次閱讀

    如何使用經(jīng)過訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型

    使用經(jīng)過訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型是一個涉及多個步驟的過程,包括數(shù)據(jù)準(zhǔn)備、模型加載、預(yù)測執(zhí)行以及后續(xù)優(yōu)化等。
    的頭像 發(fā)表于 07-12 11:43 ?959次閱讀
    RM新时代网站-首页