RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

模型案例之帳篷檢測(cè)模型

柴火創(chuàng)客空間 ? 來(lái)源:未知 ? 2024-12-06 11:10 ? 次閱讀

導(dǎo)讀

2023年以ChatGPT為代表的大語(yǔ)言模型橫空出世,它的出現(xiàn)標(biāo)志著自然語(yǔ)言處理領(lǐng)域取得了重大突破。它在文本生成、對(duì)話系統(tǒng)和語(yǔ)言理解等方面展現(xiàn)出了強(qiáng)大的能力,為人工智能技術(shù)的發(fā)展開(kāi)辟了新的可能性。同時(shí),人工智能技術(shù)正在進(jìn)入各種應(yīng)用領(lǐng)域,在智慧城市、智能制造、智慧醫(yī)療、智慧農(nóng)業(yè)等領(lǐng)域發(fā)揮著重要作用。

柴火創(chuàng)客2024年將依托母公司Seeed矽遞科技在人工智能領(lǐng)域的創(chuàng)新硬件,與全球創(chuàng)客愛(ài)好者共建“模型倉(cāng)”,通過(guò)“SenseCraft AI”平臺(tái)可以讓使用者快速部署應(yīng)用體驗(yàn)人工智能技術(shù)!

RT-DETR

目標(biāo)檢測(cè)一直面臨著一個(gè)重大挑戰(zhàn)-平衡速度和準(zhǔn)確性。像YOLO這樣的傳統(tǒng)模型速度很快,但需要一個(gè)名為非極大值抑制(NMS)的后處理步驟,這會(huì)減慢檢測(cè)速度。NMS過(guò)濾重疊的邊界框,但這會(huì)引入額外的計(jì)算時(shí)間,影響整體速度。

RT-DETR 實(shí)時(shí)端到端目標(biāo)檢測(cè)器,旨在解決現(xiàn)有目標(biāo)檢測(cè)方法在速度和精度上的問(wèn)題。該方法在保持較高檢測(cè)精度的同時(shí),顯著提升了推理速度,為實(shí)時(shí)目標(biāo)檢測(cè)提供了新的解決方案。

0213c752-b228-11ef-93f3-92fbcf53809c.png

RT-DETR是基于DETR架構(gòu)的端到端對(duì)象檢測(cè)器,完全消除了對(duì)NMS的需求。通過(guò)這樣做,RT-DETR顯著減少了之前基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的對(duì)象檢測(cè)器(如YOLO系列)的延遲。它結(jié)合了強(qiáng)大的主干、混合編碼器和獨(dú)特的查詢選擇器,可以快速準(zhǔn)確地處理特征。

0238daba-b228-11ef-93f3-92fbcf53809c.png

RT-DETR 架構(gòu)的關(guān)鍵組成

骨干網(wǎng)絡(luò):提取特征,文中實(shí)驗(yàn)了 ResNet 和可縮放的 HgNetV2 兩種骨干網(wǎng)絡(luò),選擇其最后三個(gè)階段的特征輸入到編碼器。

高效混合編碼器:通過(guò)解耦尺度內(nèi)交互和跨尺度融合來(lái)高效處理多尺度特征,它由兩部分組成:

·AIFI(Attention-based Intra-scale Feature Interaction):僅在上使用單尺度 Transformer 編碼器進(jìn)行層內(nèi)特征交互,以捕獲更豐富的語(yǔ)義概念,降低復(fù)雜度并提高整體精度。

·CCFF(CNN-based Cross-scale Feature Fusion):基于跨尺度融合模塊進(jìn)行優(yōu)化,在融合路徑中插入多個(gè)由卷積層組成的融合塊,用于融合相鄰尺度的特征。融合塊包含兩個(gè) 1×1 卷積調(diào)整通道數(shù),使用 RepConv 組成的 N 個(gè) RepBlocks 進(jìn)行特征融合,通過(guò)元素相加融合兩條路徑的輸出。

Transformer 解碼器:解碼器通過(guò)不確定性最小查詢選擇模塊,從編碼器輸出的特征序列中選擇固定數(shù)量的特征作為初始對(duì)象查詢,然后利用輔助預(yù)測(cè)頭迭代優(yōu)化對(duì)象查詢,生成類別和邊界框。

此外,RT-DETR 支持靈活調(diào)整推理速度,通過(guò)調(diào)整解碼器層數(shù)實(shí)現(xiàn),而無(wú)需重新訓(xùn)練。同時(shí),它還支持通過(guò)控制編碼器和解碼器的參數(shù)來(lái)實(shí)現(xiàn)模型的縮放。

024a685c-b228-11ef-93f3-92fbcf53809c.png

RT-DETR特點(diǎn)

高效混合編碼器:采用高效混合編碼器,通過(guò)解耦尺度內(nèi)交互和跨尺度融合來(lái)處理多尺度特征。這種基于 Vision Transformers 的獨(dú)特設(shè)計(jì)降低了計(jì)算成本,允許實(shí)時(shí)物體檢測(cè)。

IoU 感知查詢選擇:利用 IoU 感知查詢選擇改進(jìn)了對(duì)象查詢初始化,使模型能夠?qū)W⒂趫?chǎng)景中最相關(guān)的對(duì)象,從而提高檢測(cè)準(zhǔn)確性。

推理速度可調(diào):支持通過(guò)使用不同的解碼器層靈活調(diào)整推理速度,無(wú)需重新訓(xùn)練。這種適應(yīng)性有助于在各種實(shí)時(shí)目標(biāo)檢測(cè)場(chǎng)景中的實(shí)際應(yīng)用。

025fb158-b228-11ef-93f3-92fbcf53809c.png

實(shí)時(shí)性能:實(shí)現(xiàn)了實(shí)時(shí)目標(biāo)檢測(cè)速度,相比許多基于 Transformer 的模型,其推理速度更快。

無(wú)錨框設(shè)計(jì):不依賴于錨框,直接預(yù)測(cè)物體的邊界框和類別,提高了模型的靈活性和檢測(cè)效率,減少了超參數(shù)調(diào)優(yōu)的工作量,提升了小目標(biāo)檢測(cè)的性能。

端到端訓(xùn)練:采用端到端的訓(xùn)練方式,不需要像傳統(tǒng)的檢測(cè)方法那樣經(jīng)過(guò)復(fù)雜的后處理步驟,如非極大值抑制(NMS),提高了訓(xùn)練效率并減少了推理的復(fù)雜度。

0272d90e-b228-11ef-93f3-92fbcf53809c.png

高精度:在速度和精度方面均超過(guò)了 YOLO 系列等其他實(shí)時(shí)檢測(cè)器,例如 RT-DETR-R50 在 COCO val2017 上達(dá)到 53.1% 的 AP 和 108 FPS,RT-DETR-R101 達(dá)到 54.3% 的 AP 和 74 FPS。

可擴(kuò)展性:支持模型的縮放,通過(guò)控制編碼器和解碼器的參數(shù),如調(diào)整寬度(嵌入尺寸和通道數(shù))和深度(Transformer 層數(shù)和 RepBlocks),以適應(yīng)不同場(chǎng)景的需求。

高效處理多尺度特征:集成了多尺度特征融合模塊,能夠同時(shí)處理大中小不同尺寸的目標(biāo),在檢測(cè)小目標(biāo)時(shí)表現(xiàn)優(yōu)異。

帳篷檢測(cè)模型

027fac74-b228-11ef-93f3-92fbcf53809c.png

該 AI 模型利用先進(jìn)的 Swift yolo 算法,專注于帳篷識(shí)別,可以在實(shí)時(shí)視頻流中準(zhǔn)確檢測(cè)和標(biāo)記帳篷。它特別適用于 Seeed Studio Grove Vision AI (V2) 設(shè)備,提供高兼容性和穩(wěn)定性。

露營(yíng)場(chǎng)景應(yīng)用

0290f25e-b228-11ef-93f3-92fbcf53809c.png

營(yíng)地管理與布局優(yōu)化:

- 幫助營(yíng)地主動(dòng)監(jiān)控帳篷的分布情況,可以分析不同區(qū)域的帳篷數(shù)量,優(yōu)化露營(yíng)地的布局,確保合理利用空間,避免擁堵。

安全與防災(zāi):

- 在天氣突變或出現(xiàn)自然災(zāi)害時(shí)(如暴風(fēng)雨、洪水等),可以實(shí)時(shí)檢測(cè)帳篷所在地的環(huán)境變化,警告營(yíng)地管理者采取相應(yīng)措施,保障露營(yíng)者的安全。

資源分配與監(jiān)控:

- 管理者可以根據(jù)檢測(cè)到的帳篷數(shù)量和分布,合理分配營(yíng)地的水、電及其他資源,更高效地滿足露營(yíng)者的需求。

數(shù)據(jù)收集與分析:

- 通過(guò)持續(xù)監(jiān)測(cè)帳篷的數(shù)量和動(dòng)態(tài)變化,營(yíng)地管理者可以收集露營(yíng)高峰期的數(shù)據(jù),從而為未來(lái)的活動(dòng)策劃和資源配置提供參考。

客戶體驗(yàn)提升:

- 通過(guò)分析帳篷的分布及活動(dòng)情況,管理者可以為露營(yíng)者提供個(gè)性化的建議,如推薦適合的露營(yíng)區(qū)域、活動(dòng)和服務(wù),提升整體體驗(yàn)。

野生動(dòng)物監(jiān)測(cè)與管理:

- 利用帳篷檢測(cè)技術(shù),營(yíng)地管理人員可以監(jiān)控露營(yíng)區(qū)域?qū)Ξ?dāng)?shù)厣鷳B(tài)環(huán)境的影響,合理安排活動(dòng),以保護(hù)野生動(dòng)物棲息環(huán)境。

應(yīng)急響應(yīng):

- 在緊急情況下,例如露營(yíng)者的失蹤或事故發(fā)生時(shí),模型可以幫助定位帳篷位置,快速調(diào)派救援力量。

智能化露營(yíng)服務(wù):

- 在自動(dòng)化和智能化露營(yíng)平臺(tái)中,帳篷檢測(cè)模型可以與其他智能設(shè)備和系統(tǒng)集成,為露營(yíng)者提供實(shí)時(shí)信息和服務(wù),如天氣預(yù)報(bào)、急救指引等。

在Grove-VisionAIV2上部署模型

1、打開(kāi)SenseCraft AI平臺(tái),如果第一次使用請(qǐng)先注冊(cè)一個(gè)會(huì)員賬號(hào),還可以設(shè)置語(yǔ)言為中文。

平臺(tái)地址:https://sensecraft.seeed.cc/ai/#/model

02b842be-b228-11ef-93f3-92fbcf53809c.png

2、在頂部單擊【預(yù)訓(xùn)練模型】菜單,在公共AI模型列表9中找到【帳篷檢測(cè)】模型,單擊此模型圖片,如下圖所示。

02d8a428-b228-11ef-93f3-92fbcf53809c.png

3、進(jìn)入【帳篷檢測(cè)】模型介紹頁(yè)面,單擊右側(cè)的“部署模型”按鈕,如下圖所示。

02ef4dc2-b228-11ef-93f3-92fbcf53809c.png

4、進(jìn)入部署帳篷檢測(cè)模型頁(yè)面,按提示步驟先連接攝像頭,再連接設(shè)備到電腦USB接口上,最后單擊【連接設(shè)備】按鈕,如下圖所示。

030b6020-b228-11ef-93f3-92fbcf53809c.png

5、彈出部署模型窗口,單擊“確定”按鈕,如下圖所示。

0329ec34-b228-11ef-93f3-92fbcf53809c.png

6、彈出連接到串行端口窗口,選擇端口號(hào)后單擊“連接”按鈕,如下圖所示。

0334f5e8-b228-11ef-93f3-92fbcf53809c.png

7、開(kāi)始進(jìn)行模型部署、固件下載、設(shè)備重啟等過(guò)程,完成后在預(yù)覽中即可看到當(dāng)前攝像頭視頻內(nèi)容,將攝像頭對(duì)準(zhǔn)露營(yíng)中的帳篷圖片查看預(yù)測(cè)效果,如下圖所示。

033c72aa-b228-11ef-93f3-92fbcf53809c.png

預(yù)測(cè)效果視頻演示

Grove Al視覺(jué)模塊 V2套裝介紹

0357d824-b228-11ef-93f3-92fbcf53809c.png

Grove Al視覺(jué)模塊 V2

036e9e24-b228-11ef-93f3-92fbcf53809c.png

OV5647-62攝像頭

Grove - Vision Al Module V2是一款拇指大小的人工智能視覺(jué)模塊, 配備Himax WiseEye2 HX6538處理器, 該處理器采用 ArmCortex-M55雙核架構(gòu)。

它具有標(biāo)準(zhǔn)的CSI接口, 并與樹(shù)莓派相機(jī)兼容。它有一個(gè)內(nèi)置的數(shù)字麥克風(fēng)和SD卡插槽。它非常適用于各種嵌入式視覺(jué)項(xiàng)目。

有了SenseCraft Al算法平臺(tái), 經(jīng)過(guò)訓(xùn)練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測(cè)應(yīng)用的理想選擇。

Arm Ethos-U55 嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)

嵌入式神經(jīng)網(wǎng)絡(luò)處理器(NPU)是一種特別設(shè)計(jì)用于執(zhí)行神經(jīng)網(wǎng)絡(luò)計(jì)算的高效率處理器。它主要基于數(shù)據(jù)驅(qū)動(dòng)并行計(jì)算架構(gòu),特別擅長(zhǎng)處理視頻、圖像等大量的多媒體數(shù)據(jù)。NPU模仿了生物神經(jīng)網(wǎng)絡(luò)的架構(gòu),與CPUGPU相比,它能夠通過(guò)更少的指令(一條或幾條)完成神經(jīng)元的處理,因此在深度學(xué)習(xí)的處理效率方面具有明顯優(yōu)勢(shì)。

它具有標(biāo)準(zhǔn)的CSI接口, 并與樹(shù)莓派相機(jī)兼容。它有一個(gè)內(nèi)置的數(shù)字麥克風(fēng)和SD卡插槽。它非常適用于各種嵌入式視覺(jué)項(xiàng)目。

有了SenseCraft Al算法平臺(tái), 經(jīng)過(guò)訓(xùn)練的ML模型可以部署到傳感器, 而不需要編碼。它兼容XIAO系列和Arduino生態(tài)系統(tǒng), 是各種物體檢測(cè)應(yīng)用的理想選擇。

主要硬件配置

- 板卡基于WiseEye2 HX6538處理器, 采用雙核ARM Cortex-M55架構(gòu) 。

- 配備集成Arm Ethos-U55微神經(jīng)網(wǎng)絡(luò)加速單元, 兼容的樹(shù)莓派相機(jī)

- 板載PDM麥克風(fēng), SD卡插槽, Type-C, Grove接口, 豐富的外設(shè)支持樣機(jī)開(kāi)發(fā) 。

- Seeed Studio XIAO的可擴(kuò)展性, SenseCraft Al的現(xiàn)成AI模型用于無(wú)代碼部署。

- 支持各種有效的模型, 包括MobilenetV1、MobilenetV2、 Eficientnet-Lite、Yolov5和Yolov8。

寫在最后

SenseCraft-AI平臺(tái)的模型倉(cāng)數(shù)量還很少,但是好消息是它支持自定義模型上傳并輸出推理結(jié)果,平臺(tái)會(huì)逐漸增加模型倉(cāng)的數(shù)量和分享有愛(ài)好者設(shè)計(jì)的模型倉(cāng)原型,敬請(qǐng)關(guān)注!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1143

    瀏覽量

    40717
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47183

    瀏覽量

    238235
  • 目標(biāo)檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    209

    瀏覽量

    15605

原文標(biāo)題:模型案例:| 帳篷檢測(cè)模型!

文章出處:【微信號(hào):ChaiHuoMakerSpace,微信公眾號(hào):柴火創(chuàng)客空間】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【「大模型啟示錄」閱讀體驗(yàn)】對(duì)大模型更深入的認(rèn)知

    閱讀《大模型啟示錄》這本書(shū),我得說(shuō),它徹底顛覆了我對(duì)大模型的理解。作為一個(gè)經(jīng)常用KIMI和豆包這類AI工具來(lái)完成作業(yè)、整理資料的大學(xué)生,我原以為大模型就是這些工具背后的技術(shù)。但這本書(shū)讓我意識(shí)到
    發(fā)表于 12-20 15:46

    模型案例綿羊檢測(cè)模型

    ? 導(dǎo)讀? ? 2023年以ChatGPT為代表的大語(yǔ)言模型橫空出世,它的出現(xiàn)標(biāo)志著自然語(yǔ)言處理領(lǐng)域取得了重大突破。它在文本生成、對(duì)話系統(tǒng)和語(yǔ)言理解等方面展現(xiàn)出了強(qiáng)大的能力,為人工智能技術(shù)的發(fā)展
    的頭像 發(fā)表于 12-20 10:27 ?63次閱讀
    <b class='flag-5'>模型</b>案例<b class='flag-5'>之</b>綿羊<b class='flag-5'>檢測(cè)</b><b class='flag-5'>模型</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    以及邊緣計(jì)算能力的增強(qiáng),越來(lái)越多的目標(biāo)檢測(cè)應(yīng)用開(kāi)始直接在靠近數(shù)據(jù)源的邊緣設(shè)備上運(yùn)行。這不僅減少了數(shù)據(jù)傳輸延遲,保護(hù)了用戶隱私,同時(shí)也減輕了云端服務(wù)器的壓力。然而,在邊緣端部署高效且準(zhǔn)確的目標(biāo)檢測(cè)模型
    發(fā)表于 12-19 14:33

    【「大模型啟示錄」閱讀體驗(yàn)】如何在客服領(lǐng)域應(yīng)用大模型

    在客服領(lǐng)域是大模型落地場(chǎng)景中最多的,也是最容易實(shí)現(xiàn)的。本身客服領(lǐng)域的特點(diǎn)就是問(wèn)答形式,大模型接入難度低。今天跟隨《大模型啟示錄 》這本書(shū),學(xué)習(xí)大模型在客服領(lǐng)域的改變。選擇大
    發(fā)表于 12-17 16:53

    什么是大模型、大模型是怎么訓(xùn)練出來(lái)的及大模型作用

    本文通俗簡(jiǎn)單地介紹了什么是大模型、大模型是怎么訓(xùn)練出來(lái)的和大模型的作用。 ? 什么是大模型模型,英文名叫Large Model,大型
    的頭像 發(fā)表于 11-25 09:29 ?1202次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么訓(xùn)練出來(lái)的及大<b class='flag-5'>模型</b>作用

    將amc1200 SPICE模型轉(zhuǎn)成PSPICE模型后 無(wú)法在ORCAD16.5中使用,為什么?

    我按TI提供文件 [ 在PSpice中使用Spice模型 ]將amc1200SPICE模型轉(zhuǎn)成PSPICE模型后卻無(wú)法在ORCAD16
    發(fā)表于 08-29 07:25

    人臉檢測(cè)模型的精確度怎么算

    人臉檢測(cè)模型的精確度評(píng)估是一個(gè)復(fù)雜的過(guò)程,涉及到多個(gè)方面的因素。本文將從以下幾個(gè)方面進(jìn)行介紹:人臉檢測(cè)模型的基本概念、評(píng)估指標(biāo)、評(píng)估方法、影響因素以及提高精確度的策略。 人臉
    的頭像 發(fā)表于 07-04 09:14 ?496次閱讀

    人臉檢測(cè)模型有哪些

    人臉檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要研究方向,它涉及到從圖像或視頻中檢測(cè)出人臉的位置和大小。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,人臉檢測(cè)模型的性能得到了顯著提升。以下是一些常見(jiàn)的人臉
    的頭像 發(fā)表于 07-03 17:05 ?1009次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的應(yīng)用

    ,它通過(guò)抽象思考和邏輯推理,協(xié)助我們應(yīng)對(duì)復(fù)雜的決策。 相應(yīng)地,我們?cè)O(shè)計(jì)了兩類任務(wù)來(lái)檢驗(yàn)大語(yǔ)言模型的能力。一類是感性的、無(wú)需理性能力的任務(wù),類似于人類的系統(tǒng)1,如情感分析和抽取式問(wèn)答等。大語(yǔ)言模型在這
    發(fā)表于 05-07 17:21

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的評(píng)測(cè)

    大語(yǔ)言模型的評(píng)測(cè)是確保模型性能和應(yīng)用適應(yīng)性的關(guān)鍵環(huán)節(jié)。從基座模型到微調(diào)模型,再到行業(yè)模型和整體能力,每個(gè)階段都需要精確的評(píng)測(cè)來(lái)指導(dǎo)
    發(fā)表于 05-07 17:12

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    全面剖析大語(yǔ)言模型的核心技術(shù)與基礎(chǔ)知識(shí)。首先,概述自然語(yǔ)言的基本表示,這是理解大語(yǔ)言模型技術(shù)的前提。接著,詳細(xì)介紹自然語(yǔ)言處理預(yù)訓(xùn)練的經(jīng)典結(jié)構(gòu)Transformer,以及其工作原理,為構(gòu)建大語(yǔ)言
    發(fā)表于 05-05 12:17

    【大語(yǔ)言模型:原理與工程實(shí)踐】揭開(kāi)大語(yǔ)言模型的面紗

    大語(yǔ)言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語(yǔ)言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí),利用神經(jīng)網(wǎng)絡(luò)框架來(lái)理解和生成自然語(yǔ)言文本。這些模型通過(guò)訓(xùn)練海量的文本數(shù)據(jù)集,如
    發(fā)表于 05-04 23:55

    【大語(yǔ)言模型:原理與工程實(shí)踐】探索《大語(yǔ)言模型原理與工程實(shí)踐》

    《大語(yǔ)言模型》是一本深入探討人工智能領(lǐng)域中語(yǔ)言模型的著作。作者通過(guò)對(duì)語(yǔ)言模型的基本概念、基礎(chǔ)技術(shù)、應(yīng)用場(chǎng)景分析,為讀者揭開(kāi)了這一領(lǐng)域的神秘面紗。本書(shū)不僅深入討論了語(yǔ)言模型的理論基礎(chǔ),還
    發(fā)表于 04-30 15:35

    基于DiAD擴(kuò)散模型的多類異常檢測(cè)工作

    現(xiàn)有的基于計(jì)算機(jī)視覺(jué)的工業(yè)異常檢測(cè)技術(shù)包括基于特征的、基于重構(gòu)的和基于合成的技術(shù)。最近,擴(kuò)散模型因其強(qiáng)大的生成能力而聞名,因此本文作者希望通過(guò)擴(kuò)散模型將異常區(qū)域重構(gòu)成正常。
    的頭像 發(fā)表于 01-08 14:55 ?1379次閱讀
    基于DiAD擴(kuò)散<b class='flag-5'>模型</b>的多類異常<b class='flag-5'>檢測(cè)</b>工作
    RM新时代网站-首页