RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

花卉分類識(shí)別模型設(shè)計(jì)

柴火創(chuàng)客空間 ? 來(lái)源:柴火創(chuàng)客空間 ? 2024-11-01 09:49 ? 次閱讀

導(dǎo)讀

2023年以ChatGPT為代表的大語(yǔ)言模型橫空出世,它的出現(xiàn)標(biāo)志著自然語(yǔ)言處理領(lǐng)域取得了重大突破。它在文本生成、對(duì)話系統(tǒng)和語(yǔ)言理解等方面展現(xiàn)出了強(qiáng)大的能力,為人工智能技術(shù)的發(fā)展開辟了新的可能性。同時(shí),人工智能技術(shù)正在進(jìn)入各種應(yīng)用領(lǐng)域,在智慧城市、智能制造、智慧醫(yī)療、智慧農(nóng)業(yè)等領(lǐng)域發(fā)揮著重要作用。

柴火創(chuàng)客2024年將依托母公司Seeed矽遞科技在人工智能領(lǐng)域的創(chuàng)新硬件,與全球創(chuàng)客愛好者共建“模型倉(cāng)”,通過(guò)“SenseCraft AI”平臺(tái)可以讓使用者快速部署應(yīng)用體驗(yàn)人工智能技術(shù)!

本期介紹:模型案例:|花卉分類識(shí)別模型!

FCOS

FCOS?(Fully Convolutional One-Stage Object Detection)是一種基于全卷積的單階段目標(biāo)檢測(cè)算法,它是一種無(wú)Anchor box的算法,實(shí)現(xiàn)了無(wú)Anchor、無(wú)Proposal,并且提出了Center-ness的思想,極大地提升了Anchor-Free目標(biāo)檢測(cè)算法的性能。

FCOS的優(yōu)點(diǎn)包括避免了Anchor Box帶來(lái)的復(fù)雜計(jì)算,如計(jì)算重合度IoU,避免了Anchor Box相關(guān)的超參數(shù)設(shè)置,這些設(shè)置對(duì)性能影響較大。

因此,F(xiàn)COS可以與其他使用FCN結(jié)構(gòu)的任務(wù)相統(tǒng)一,方便其他任務(wù)方法之間的re-use,減少了超參數(shù)數(shù)量,更簡(jiǎn)單,同時(shí)也減少了計(jì)算復(fù)雜度,如IoU計(jì)算。

FCOS網(wǎng)絡(luò)結(jié)構(gòu)

FCOS的網(wǎng)絡(luò)結(jié)構(gòu)主要由三部分組成:Backbone、FPN(Feature Pyramid Networks)和Classification+Center-ness+Regression Head。

c6334f18-9734-11ef-a511-92fbcf53809c.png

Backbone

Backbone是FCOS網(wǎng)絡(luò)的特征提取部分,通常采用深度卷積神經(jīng)網(wǎng)絡(luò)(如ResNet、VGG等)來(lái)提取圖像的多尺度特征。這些特征圖不僅包含了豐富的語(yǔ)義信息,還保留了足夠的空間信息,為后續(xù)的目標(biāo)檢測(cè)提供了有力的支持。

在FCOS中,Backbone輸出的特征圖尺寸逐層減半,形成金字塔結(jié)構(gòu)。對(duì)于特征圖上的每一個(gè)點(diǎn)(x, y),其映射回原圖的坐標(biāo)可以通過(guò)公式(?s/2?+xs, ?s/2?+ys)計(jì)算得到,其中s為特征圖相對(duì)于原圖的下采樣倍數(shù)。這種映射關(guān)系使得FCOS能夠直接利用特征圖上的點(diǎn)進(jìn)行目標(biāo)預(yù)測(cè),而無(wú)需預(yù)設(shè)Anchor boxes。

FPN

FPN(Feature Pyramid Networks)是一種用于多尺度目標(biāo)檢測(cè)的網(wǎng)絡(luò)結(jié)構(gòu),它通過(guò)融合不同尺度的特征圖來(lái)增強(qiáng)網(wǎng)絡(luò)對(duì)不同尺寸目標(biāo)的檢測(cè)能力。在FCOS中,F(xiàn)PN同樣扮演著重要的角色。

與Anchor Based的檢測(cè)器不同,F(xiàn)COS通過(guò)限制不同層級(jí)特征圖上的邊界框回歸范圍來(lái)分配檢測(cè)任務(wù)。具體來(lái)說(shuō),F(xiàn)COS將每個(gè)特征圖上的點(diǎn)分配給其最近的目標(biāo)(如果存在的話),并根據(jù)目標(biāo)的大小將其分配到不同的特征層級(jí)上。這種分配策略不僅提高了檢測(cè)效率,還使得網(wǎng)絡(luò)能夠更專注于處理與其層級(jí)相匹配的目標(biāo)尺寸。

Classification+Center-ness+Regression Head

在FCOS中,每個(gè)特征圖上的點(diǎn)都被視為一個(gè)潛在的訓(xùn)練樣本,用于進(jìn)行目標(biāo)分類、Center-ness預(yù)測(cè)和邊界框回歸。為了實(shí)現(xiàn)這些任務(wù),F(xiàn)COS在特征圖后接入了三個(gè)并行的卷積頭:Classification Head、Center-ness Head和Regression Head。

c6667708-9734-11ef-a511-92fbcf53809c.png

Classification Head:用于預(yù)測(cè)特征圖上每個(gè)點(diǎn)所屬的目標(biāo)類別。在訓(xùn)練過(guò)程中,只有當(dāng)特征點(diǎn)位于某個(gè)目標(biāo)的有效區(qū)域內(nèi)時(shí)(即與目標(biāo)的邊界框有足夠的重疊),才會(huì)被標(biāo)記為正樣本并參與分類訓(xùn)練。否則,該點(diǎn)被視為負(fù)樣本。

Center-ness Head:是FCOS的一個(gè)創(chuàng)新點(diǎn),用于預(yù)測(cè)特征點(diǎn)上目標(biāo)中心區(qū)域的相對(duì)位置。具體來(lái)說(shuō),Center-ness是一個(gè)0到1之間的值,表示該點(diǎn)到其所屬目標(biāo)中心的距離遠(yuǎn)近。在訓(xùn)練過(guò)程中,Center-ness的值會(huì)根據(jù)點(diǎn)到目標(biāo)中心的距離進(jìn)行計(jì)算和標(biāo)注。在推理過(guò)程中,Center-ness的值會(huì)與分類得分相乘作為最終的預(yù)測(cè)得分,以降低遠(yuǎn)離目標(biāo)中心的預(yù)測(cè)框的得分從而提高檢測(cè)性能。

Regression Head:用于預(yù)測(cè)特征圖上每個(gè)點(diǎn)到其所屬目標(biāo)邊界框四條邊的距離。與許多Anchor-based的方法不同,F(xiàn)COS直接回歸這些距離值而無(wú)需預(yù)設(shè)Anchor boxes。這種回歸方式不僅簡(jiǎn)化了檢測(cè)流程還減少了計(jì)算量?!?/p>

c671683e-9734-11ef-a511-92fbcf53809c.png

FCOS性能優(yōu)勢(shì)

減少了計(jì)算復(fù)雜度,由于摒棄了Anchor boxes機(jī)制FCOS避免了與之相關(guān)的復(fù)雜計(jì)算如計(jì)算重合度IoU等從而減少了計(jì)算量提高了檢測(cè)效率。同時(shí)FCOS還減少了與Anchor相關(guān)的超參數(shù)數(shù)量簡(jiǎn)化了算法設(shè)計(jì)并降低了超參數(shù)調(diào)整的難度。

提高了檢測(cè)精度,通過(guò)引入Center-ness優(yōu)化機(jī)制FCOS能夠降低遠(yuǎn)離目標(biāo)中心的預(yù)測(cè)框的得分從而提高檢測(cè)精度。此外FCOS還采用了多尺度預(yù)測(cè)與層級(jí)分配策略來(lái)處理不同尺寸的目標(biāo)進(jìn)一步提高了檢測(cè)性能。

增強(qiáng)了與其他任務(wù)的兼容性,由于FCOS采用了全卷積網(wǎng)絡(luò)結(jié)構(gòu)因此它可以與其他使用FCN結(jié)構(gòu)的任務(wù)相統(tǒng)一方便其他任務(wù)方法之間的re-use。這種兼容性不僅有助于實(shí)現(xiàn)多任務(wù)學(xué)習(xí)還能夠促進(jìn)不同領(lǐng)域之間的知識(shí)共享和遷移學(xué)習(xí)。

花卉分類識(shí)別模型

該模型用來(lái)檢測(cè)花卉,可以識(shí)別郁金香(tulips)、向日葵(sunflowers)和粉玫瑰(roses)三種花卉。

花卉識(shí)別數(shù)據(jù)集

數(shù)據(jù)集下載地址

Grove - VisionAIV2模塊上訓(xùn)練和部署模型

SenseCraft Al平臺(tái)提供和簡(jiǎn)單、方便的AI模型訓(xùn)練和部署功能,可以讓技術(shù)小白也能快速進(jìn)行特定場(chǎng)景的AI模型訓(xùn)練和部署。

1、打開SenseCraft AI平臺(tái),如果第一次使用請(qǐng)先注冊(cè)一個(gè)會(huì)員賬號(hào),還可以設(shè)置語(yǔ)言為中文,在頂部菜單欄單擊【模型訓(xùn)練】選項(xiàng),如下圖所示。

平臺(tái)地址:https://sensecraft.seeed.cc/ai/#/model

c6cc4ae2-9734-11ef-a511-92fbcf53809c.png

2、進(jìn)入【模型訓(xùn)練】頁(yè)面后單擊左側(cè)的【分類識(shí)別類別】選項(xiàng),如下圖所示。

c6f40e10-9734-11ef-a511-92fbcf53809c.png

3、單擊Class1和Class2右邊的修改分類名稱圖標(biāo),修改兩個(gè)類別名稱為roses(粉玫瑰)和sunflowers(向日葵)兩個(gè)圖像分類類別,再單擊底部的“添加類別”選項(xiàng)并修改類別名稱為tulips(郁金香),如下圖所示。

c6fa1aee-9734-11ef-a511-92fbcf53809c.png

4、在每個(gè)分類選項(xiàng)中,單擊右邊的【...】圖標(biāo),單擊【導(dǎo)入圖片】打開導(dǎo)入圖像窗口,將下載好的數(shù)據(jù)圖片導(dǎo)入到每個(gè)類別中,這樣就導(dǎo)入了一定數(shù)量的數(shù)據(jù)集(至少100張),如下圖所示。

5、接著進(jìn)行第二步:模型訓(xùn)練,先選中“Grove(V2)”然后單擊【開始訓(xùn)練】按鈕,如下圖所示。經(jīng)過(guò)一段時(shí)間的訓(xùn)練后,即可生成花卉分類圖像識(shí)別模型。

c71f238e-9734-11ef-a511-92fbcf53809c.png

6、第三步是部署,先選中“Grove(V2)”選項(xiàng),單擊【部署到設(shè)備】如下圖所示,按提示連接Grove vision AI V2硬件后開始進(jìn)行模型部署。

c735dfca-9734-11ef-a511-92fbcf53809c.png

7、部署完成后進(jìn)入工作窗口,這時(shí)會(huì)打開攝像頭預(yù)覽功能,對(duì)郁金香(tulips)、向日葵(sunflowers)和粉玫瑰(roses)圖像,預(yù)覽窗口底部會(huì)看到預(yù)測(cè)的類別名稱和置信率,如下圖所示。

推理結(jié)果演示

Grove Al視覺模塊 V2套裝介紹

Grove Al視覺模塊 V2

OV5647-62攝像頭

Grove - Vision Al Module V2是一款拇指大小的人工智能視覺模塊, 配備Himax WiseEye2 HX6538處理器Arm Ethos-U55嵌入式神經(jīng)網(wǎng)絡(luò)加速單元(NPU), 該處理器采用 ArmCortex-M55雙核架構(gòu)。

Arm Ethos-U55 嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)

嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)是一種特別設(shè)計(jì)用于執(zhí)行神經(jīng)網(wǎng)絡(luò)計(jì)算的高效率處理器。它主要基于數(shù)據(jù)驅(qū)動(dòng)并行計(jì)算架構(gòu),特別擅長(zhǎng)處理視頻、圖像等大量的多媒體數(shù)據(jù)。NPU模仿了生物神經(jīng)網(wǎng)絡(luò)的架構(gòu),與CPU、GPU相比,它能夠通過(guò)更少的指令(一條或幾條)完成神經(jīng)元的處理,因此在深度學(xué)習(xí)的處理效率方面具有明顯優(yōu)勢(shì)。

它具有標(biāo)準(zhǔn)的CSI接口, 并與樹莓派相機(jī)兼容。它有一個(gè)內(nèi)置的數(shù)字麥克風(fēng)和SD卡插槽。它非常適用于各種嵌入式視覺項(xiàng)目。

有了SenseCraft Al算法平臺(tái), 經(jīng)過(guò)訓(xùn)練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測(cè)應(yīng)用的理想選擇。

主要硬件配置

- 板卡基于WiseEye2 HX6538處理器, 采用雙核ARM Cortex-M55架構(gòu)

- 配備集成Arm Ethos-U55嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU), 兼容的樹莓派相機(jī)

- 板載PDM麥克風(fēng), SD卡插槽, Type-C, Grove接口, 豐富的外設(shè)支持樣機(jī)開發(fā)

- Seeed Studio XIAO的可擴(kuò)展性, SenseCraft Al的現(xiàn)成AI模型用于無(wú)代碼部署。

- 支持各種有效的模型, 包括MobilenetV1、MobilenetV2、 Eficientnet-Lite、Yolov5和Yolov8.

寫在最后

SenseCraft-AI平臺(tái)的模型倉(cāng)數(shù)量還很少,但是好消息是它支持自定義模型上傳并輸出推理結(jié)果,平臺(tái)會(huì)逐漸增加模型倉(cāng)的數(shù)量和分享愛好者設(shè)計(jì)的模型倉(cāng)原型,敬請(qǐng)關(guān)注!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47183

    瀏覽量

    238209
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3226

    瀏覽量

    48806
  • 目標(biāo)檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    209

    瀏覽量

    15605
  • ChatGPT
    +關(guān)注

    關(guān)注

    29

    文章

    1558

    瀏覽量

    7592

原文標(biāo)題:模型案例:| 花卉分類識(shí)別模型!

文章出處:【微信號(hào):ChaiHuoMakerSpace,微信公眾號(hào):柴火創(chuàng)客空間】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于隱馬爾可夫模型的音頻自動(dòng)分類

    音頻的自動(dòng)分類,尤其是語(yǔ)音和音樂的分類,是提取音頻結(jié)構(gòu)和內(nèi)容語(yǔ)義的重要手段之一,它在基于內(nèi)容的音頻檢索、視頻的檢索和摘要以及語(yǔ)音文檔檢索等領(lǐng)域都有重大的應(yīng)用價(jià)值.由于隱馬爾可夫模型能夠很好地刻畫音頻
    發(fā)表于 03-06 23:50

    【GoKit申請(qǐng)】智能花卉澆水系統(tǒng)

    ` 本帖最后由 睿健棒棒 于 2015-5-25 10:25 編輯 我的項(xiàng)目名稱是智能花卉澆水系統(tǒng),我的想法理由是這樣:有的時(shí)候,家人一起出去旅游或者是探望親屬,家里長(zhǎng)時(shí)間沒有人,花卉長(zhǎng)時(shí)間不
    發(fā)表于 05-18 11:27

    系統(tǒng)模型及其分類

    系統(tǒng)模型及其分類[hide][/hide]
    發(fā)表于 10-03 22:59

    系統(tǒng)模型及其分類.zip

    系統(tǒng)模型及其分類.zip
    發(fā)表于 10-04 11:23

    labview圖片識(shí)別分類

    想做一個(gè)labview調(diào)用攝像頭,拍照后識(shí)別物體并分類
    發(fā)表于 11-13 18:49

    Edge Impulse的分類模型淺析

    就Edge Impulse的三大模型之一的分類模型進(jìn)行淺析。針對(duì)于圖像的分類識(shí)別模型,讀者可參考
    發(fā)表于 12-20 06:51

    系統(tǒng)模型及其分類

    系統(tǒng)模型及其分類
    發(fā)表于 12-06 14:52 ?0次下載

    分類器融合行為識(shí)別模型

    為了提高基于智能移動(dòng)設(shè)備的人體日常行為識(shí)別準(zhǔn)確率,提出一種高可信度加權(quán)的多分類器融合行為識(shí)別模型( MCFM)。針對(duì)不同智能設(shè)備內(nèi)置加速度傳感器獲取的三軸加速度信息,優(yōu)選出與人體行為相
    發(fā)表于 12-08 17:14 ?0次下載
    多<b class='flag-5'>分類</b>器融合行為<b class='flag-5'>識(shí)別</b><b class='flag-5'>模型</b>

    一種新的目標(biāo)分類特征深度學(xué)習(xí)模型

    受限和高識(shí)別率要求,提取圖像的局部方向梯度直方圖( HOG)特征,構(gòu)建稀疏自編碼器棧對(duì)HOG特征進(jìn)行深層次編碼,設(shè)計(jì)Softmax多分類器對(duì)所抽取的特征進(jìn)行分類。在深度神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)
    發(fā)表于 03-20 17:30 ?0次下載
    一種新的目標(biāo)<b class='flag-5'>分類</b>特征深度學(xué)習(xí)<b class='flag-5'>模型</b>

    基于LSTM的表示學(xué)習(xí)-文本分類模型

    的關(guān)鍵。為了獲得妤的文本表示,提高文本分類性能,構(gòu)建了基于LSTM的表示學(xué)習(xí)-文本分類模型,其中表示學(xué)習(xí)模型利用語(yǔ)言模型為文本
    發(fā)表于 06-15 16:17 ?18次下載

    CNN和DBN在肺結(jié)節(jié)影像分類識(shí)別的對(duì)比分析

    針對(duì)肺結(jié)節(jié)圖像的分類識(shí)別精度和效率問題,分別將CNN( Convolution Neural Network)模型和DBN( Deep beliefNetwork)模型用于肺結(jié)節(jié)
    發(fā)表于 06-16 16:21 ?10次下載

    改進(jìn)VGG模型在蘋果外觀識(shí)別分類中的應(yīng)用

    改進(jìn)VGG模型在蘋果外觀識(shí)別分類中的應(yīng)用
    發(fā)表于 07-02 14:52 ?30次下載

    人臉識(shí)別技術(shù)的分類和實(shí)現(xiàn)方法

    人臉識(shí)別技術(shù)可以根據(jù)不同的分類方法進(jìn)行分類。根據(jù)識(shí)別方式,可以分為基于特征分析和基于模型的方法。根據(jù)處理方式,可以分為在線和離線
    的頭像 發(fā)表于 06-29 18:10 ?1603次閱讀

    人臉識(shí)別模型訓(xùn)練是什么意思

    人臉識(shí)別模型訓(xùn)練是指通過(guò)大量的人臉數(shù)據(jù),使用機(jī)器學(xué)習(xí)或深度學(xué)習(xí)算法,訓(xùn)練出一個(gè)能夠識(shí)別分類人臉的模型。這個(gè)
    的頭像 發(fā)表于 07-04 09:16 ?574次閱讀

    花卉智能灌溉控制系統(tǒng)功能應(yīng)用

    花卉智能灌溉控制系統(tǒng),作為現(xiàn)代農(nóng)業(yè)技術(shù)與信息技術(shù)融合的典范,正逐步改變著傳統(tǒng)花卉種植與養(yǎng)護(hù)的模式。這一系統(tǒng)的應(yīng)用,旨在提高灌溉效率,確保花卉生長(zhǎng)環(huán)境的精準(zhǔn)調(diào)控,為花卉產(chǎn)業(yè)的可持續(xù)發(fā)展注
    的頭像 發(fā)表于 11-19 17:04 ?198次閱讀
    RM新时代网站-首页