RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)比作一場(chǎng)“熱兵器革命”

新機(jī)器視覺 ? 來源:DeepBlue深蘭科技 ? 2020-08-28 10:59 ? 次閱讀

二十年

計(jì)算機(jī)視覺領(lǐng)域中有幾個(gè)基本的任務(wù):圖像分類[3]、目標(biāo)檢測(cè)[4]、實(shí)例分割[5]及語義分割[6],其中目標(biāo)檢測(cè)作為計(jì)算機(jī)視覺中最基本的任務(wù)在近年來引起了廣泛關(guān)注。某種意義上,它在過去二十年內(nèi)的發(fā)展也是計(jì)算機(jī)視覺發(fā)展史的縮影。如果我們將今天基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)比作一場(chǎng)“熱兵器革命”,那么回顧20年前的技術(shù)時(shí)即可窺探“冷兵器”時(shí)代的智慧。

過去二十年中與 “ 目標(biāo)檢測(cè) ” 相關(guān)的出版物數(shù)量的增長(zhǎng)

目標(biāo)檢測(cè)是一項(xiàng)計(jì)算機(jī)視覺任務(wù)。正如視覺對(duì)于人的作用一樣,目標(biāo)檢測(cè)旨在解決計(jì)算機(jī)視覺應(yīng)用中兩個(gè)最基本的問題:

1. 該物體是什么?

2. 該物體在哪里?

當(dāng)然,聰明的人可能會(huì)立即想到第三個(gè)問題:“該物體在干什么?”這即是更進(jìn)一步的邏輯及認(rèn)知推理,這一點(diǎn)在近年來的目標(biāo)檢測(cè)技術(shù)中也越來越被重視。不管怎樣,作為計(jì)算機(jī)視覺的基本任務(wù),它也是其他計(jì)算機(jī)視覺任務(wù)的主要成分,如實(shí)例分割、圖像字幕、目標(biāo)跟蹤等。

從應(yīng)用的角度來看,目標(biāo)檢測(cè)可以被分為兩個(gè)研究主題:“通用目標(biāo)檢測(cè)(General Object Detection) ” 及 “檢測(cè)應(yīng)用(Detection Applications)” ,前者旨在探索在統(tǒng)一的框架下檢測(cè)不同類型物體的方法,以模擬人類的視覺和認(rèn)知;后者是指特定應(yīng)用場(chǎng)景下的檢測(cè),如行人檢測(cè)、人臉檢測(cè)、文本檢測(cè)等。

近年來,隨著深度學(xué)習(xí)技術(shù)[7]的快速發(fā)展,為目標(biāo)檢測(cè)注入了新鮮血液,取得了顯著的突破,也將其推向了一個(gè)前所未有的研究熱點(diǎn)。目前,目標(biāo)檢測(cè)已廣泛應(yīng)用于自動(dòng)駕駛、機(jī)器人視覺、視頻監(jiān)控等領(lǐng)域。

二十年間的發(fā)展

如下圖所示,以2014年為分水嶺,目標(biāo)檢測(cè)在過去的二十年中可大致分為兩個(gè)時(shí)期:2014年前的“傳統(tǒng)目標(biāo)檢測(cè)期”及之后的“基于深度學(xué)習(xí)的目標(biāo)檢測(cè)期”。接下來我們?cè)敿?xì)談?wù)搩蓚€(gè)時(shí)期的發(fā)展。

傳統(tǒng)檢測(cè)

早期的目標(biāo)檢測(cè)算法大多是基于手工特征構(gòu)建的。由于當(dāng)時(shí)缺乏有效的圖像表示,人們別無選擇,只能設(shè)計(jì)復(fù)雜的特征表示及各種加速技術(shù)對(duì)有限的計(jì)算資源物盡其用。

(1) Viola Jones檢測(cè)器

18年前,P. Viola和M. Jones在沒有任何約束(如膚色分割)的情況下首次實(shí)現(xiàn)了人臉的實(shí)時(shí)檢測(cè)[8][9]。他們所設(shè)計(jì)的檢測(cè)器在一臺(tái)配備700MHz Pentium III CPU電腦上運(yùn)行,在保持同等檢測(cè)精度的條件下的運(yùn)算速度是其他算法的數(shù)十甚至數(shù)百倍。這種檢測(cè)算法以共同作者的名字命名為“Viola-Jones (VJ) 檢測(cè)器”以紀(jì)念他們的重大貢獻(xiàn)。

VJ檢測(cè)器采用最直接的檢測(cè)方法,即滑動(dòng)窗口(slide window):查看一張圖像中所有可能的窗口尺寸和位置并判斷是否有窗口包含人臉。這一過程雖然聽上去簡(jiǎn)單,但它背后所需的計(jì)算量遠(yuǎn)遠(yuǎn)超出了當(dāng)時(shí)計(jì)算機(jī)的算力。VJ檢測(cè)器結(jié)合了 “積分圖像”、“特征選擇” 和 “檢測(cè)級(jí)聯(lián)” 三種重要技術(shù),大大提高了檢測(cè)速度。

1)積分圖像:這是一種計(jì)算方法,以加快盒濾波或卷積過程。與當(dāng)時(shí)的其他目標(biāo)檢測(cè)算法一樣[10],在VJ檢測(cè)器中使用Haar小波作為圖像的特征表示。積分圖像使得VJ檢測(cè)器中每個(gè)窗口的計(jì)算復(fù)雜度與其窗口大小無關(guān)。

2)特征選擇:作者沒有使用一組手動(dòng)選擇的Haar基過濾器,而是使用Adaboost算法從一組巨大的隨機(jī)特征池 (大約18萬維) 中選擇一組對(duì)人臉檢測(cè)最有幫助的小特征。

3)檢測(cè)級(jí)聯(lián):在VJ檢測(cè)器中引入了一個(gè)多級(jí)檢測(cè)范例 ( 又稱“檢測(cè)級(jí)聯(lián)”,detection cascades ),通過減少對(duì)背景窗口的計(jì)算,而增加對(duì)人臉目標(biāo)的計(jì)算,從而減少了計(jì)算開銷。

(2) HOG 檢測(cè)器

方向梯度直方圖(HOG)特征描述器最初是由N. Dalal和B.Triggs在2005年提出的[11]。HOG對(duì)當(dāng)時(shí)的尺度不變特征變換(scale-invariant feature transform)和形狀語境(shape contexts)做出重要改進(jìn)。

為了平衡特征不變性 ( 包括平移、尺度、光照等 ) 和非線性 ( 區(qū)分不同對(duì)象類別 ),HOG描述器被設(shè)計(jì)為在密集的均勻間隔單元網(wǎng)格(稱為一個(gè)“區(qū)塊”)上計(jì)算,并使用重疊局部對(duì)比度歸一化方法來提高精度

雖然HOG可以用來檢測(cè)各種對(duì)象類,但它的主要目標(biāo)是行人檢測(cè)問題。如若要檢測(cè)不同大小的對(duì)象,則要讓HOG檢測(cè)器在保持檢測(cè)窗口大小不變的情況下,對(duì)輸入圖像進(jìn)行多次重設(shè)尺寸(rescale)。這么多年來,HOG檢測(cè)器一直是許多目標(biāo)檢測(cè)器和各種計(jì)算機(jī)視覺應(yīng)用的重要基礎(chǔ)。

方向梯度直方圖(HOG),計(jì)算出每個(gè)像素朝四周的梯度方向和梯度強(qiáng)度,并統(tǒng)計(jì)形成梯度直方圖

(3) 基于可變形部件的模型(DPM)

DPM作為voco -07、-08、-09屆檢測(cè)挑戰(zhàn)賽的優(yōu)勝者,它曾是傳統(tǒng)目標(biāo)檢測(cè)方法的巔峰。DPM最初是由P. Felzenszwalb提出的[12],于2008年作為HOG檢測(cè)器的擴(kuò)展,之后R. Girshick進(jìn)行了各種改進(jìn)[13][14]。

DPM遵循“分而治之”的檢測(cè)思想,訓(xùn)練可以簡(jiǎn)單地看作是學(xué)習(xí)一種正確的分解對(duì)象的方法,推理可以看作是對(duì)不同對(duì)象部件的檢測(cè)的集合。例如,檢測(cè)“汽車”的問題可以看作是檢測(cè)它的窗口、車身和車輪。工作的這一部分,也就是“star model”由P.Felzenszwalb等人完成。后來,R. Girshick進(jìn)一步將star model擴(kuò)展到 “ 混合模型 ”,以處理更顯著變化下的現(xiàn)實(shí)世界中的物體。

一個(gè)典型的DPM檢測(cè)器由一個(gè)根過濾器(root-filter)和一些零件濾波器(part-filters)組成。該方法不需要手動(dòng)設(shè)定零件濾波器的配置(如尺寸和位置),而是在開發(fā)了一種弱監(jiān)督學(xué)習(xí)方法并使用到了DPM中,所有零件濾波器的配置都可以作為潛在變量自動(dòng)學(xué)習(xí)。R. Girshick將這個(gè)過程進(jìn)一步表述為一個(gè)多實(shí)例學(xué)習(xí)的特殊案例,同時(shí)還應(yīng)用了“困難負(fù)樣本挖掘(hard-negative mining)”、“邊界框回歸”、“語境啟動(dòng)”等重要技術(shù)以提高檢測(cè)精度。而為了加快檢測(cè)速度,Girshick開發(fā)了一種技術(shù),將檢測(cè)模型“ 編譯 ”成一個(gè)更快的模型,實(shí)現(xiàn)了級(jí)聯(lián)結(jié)構(gòu),在不犧牲任何精度的情況下實(shí)現(xiàn)了超過10倍的加速。

雖然今天的目標(biāo)探測(cè)器在檢測(cè)精度方面已經(jīng)遠(yuǎn)遠(yuǎn)超過了DPM,但仍然受到DPM的許多有價(jià)值的見解的影響,如混合模型、困難負(fù)樣本挖掘、邊界框回歸等。2010年,P. Felzenszwalb和R. Girshick被授予PASCAL VOC的 “終身成就獎(jiǎng)”。

基于卷積神經(jīng)網(wǎng)絡(luò)的雙級(jí)檢測(cè)器

隨著手動(dòng)選取特征技術(shù)的性能趨于飽和,目標(biāo)檢測(cè)在2010年之后達(dá)到了一個(gè)平穩(wěn)的發(fā)展期。2012年,卷積神經(jīng)網(wǎng)絡(luò)在世界范圍內(nèi)重新煥發(fā)生機(jī)[15]。由于深卷積網(wǎng)絡(luò)能夠?qū)W習(xí)圖像的魯棒性和高層次特征表示,一個(gè)自然而然的問題是:我們能否將其應(yīng)用到目標(biāo)檢測(cè)中?

R. Girshick等人在2014年率先打破僵局,提出了具有CNN特征的區(qū)域(RCNN)用于目標(biāo)檢測(cè)[16]。從那時(shí)起,目標(biāo)檢測(cè)開始以前所未有的速度發(fā)展。在深度學(xué)習(xí)時(shí)代,目標(biāo)檢測(cè)可以分為兩類:“雙級(jí)檢測(cè)(two-stage detection)” 和 “單級(jí)檢測(cè)(one-stage detection)”,前者將檢測(cè)框定為一個(gè)“從粗到細(xì) ”的過程,而后者將其定義為“一步到位”。

雙級(jí)檢測(cè)的發(fā)展及各類檢測(cè)器的結(jié)構(gòu)[2]

(1) RCNN

RCNN[17]的思路很簡(jiǎn)單:它首先通過選擇性搜索來提取一組對(duì)象作為“提案(proposal)”并當(dāng)做對(duì)象的候選框。然后將每個(gè)提案重新調(diào)整成一個(gè)固定大小的圖像,再輸入到一個(gè)在ImageNet上訓(xùn)練得到的CNN模型(如AlexNet) 來提取特征。最后,利用線性SVM分類器對(duì)每個(gè)區(qū)域內(nèi)的目標(biāo)進(jìn)行預(yù)測(cè),識(shí)別目標(biāo)類別。RCNN在VOC07測(cè)試集上有明顯的性能提升,平均精準(zhǔn)度 (mean Average Precision,mAP) 從33.7%(DPM-v5) 大幅提高到58.5%。

雖然RCNN已經(jīng)取得了很大的進(jìn)步,但它的缺點(diǎn)是顯而易見的:需要在大量重疊的提案上進(jìn)行冗余的特征計(jì)算 (一張圖片超過2000個(gè)框),導(dǎo)致檢測(cè)速度極慢(使用GPU時(shí)每張圖片耗時(shí)14秒)。同年晚些時(shí)候,有人提出了SPPNet并克服了這個(gè)問題。

(2) SPPNet

2014年,K. He等人提出了空間金字塔池化網(wǎng)絡(luò)( Spatial Pyramid Pooling Networks,SPPNet)[18]。以前的CNN模型需要固定大小的輸入,例如AlexNet需要224x224圖像。SPPNet的主要貢獻(xiàn)是引入了空間金字塔池化(SPP)層,它使CNN能夠生成固定長(zhǎng)度的表示,而不需要重新調(diào)節(jié)有意義圖像的尺寸。

利用SPPNet進(jìn)行目標(biāo)檢測(cè)時(shí),只對(duì)整個(gè)圖像進(jìn)行一次特征映射計(jì)算,然后生成任意區(qū)域的定長(zhǎng)表示以訓(xùn)練檢測(cè)器,避免了卷積特征的重復(fù)計(jì)算。SPPNet的速度是R-CNN的20多倍,并且沒有犧牲任何檢測(cè)精度(VOC07 mAP=59.2%)。

SPPNet雖然有效地提高了檢測(cè)速度,但仍然存在一些不足:

第一,訓(xùn)練仍然是多階段的。

第二,SPPNet只對(duì)其全連接層進(jìn)行微調(diào),而忽略了之前的所有層。而次年晚些時(shí)候出現(xiàn)Fast RCNN并解決了這些問題。

(3)Fast RCNN

2015年,R. Girshick提出了Fast RCNN檢測(cè)器[19],這是對(duì)R-CNN和SPPNet的進(jìn)一步改進(jìn)。Fast RCNN使我們能夠在相同的網(wǎng)絡(luò)配置下同時(shí)訓(xùn)練檢測(cè)器和邊界框回歸器。在VOC07數(shù)據(jù)集上,F(xiàn)ast RCNN將mAP從58.5%( RCNN)提高到70.0%,檢測(cè)速度是R-CNN的200多倍。

雖然Fast-RCNN成功地融合了R-CNN和SPPNet的優(yōu)點(diǎn),但其檢測(cè)速度仍然受到提案檢測(cè)的限制。然后,一個(gè)問題自然而然地出現(xiàn)了:“ 我們能用CNN模型生成對(duì)象提案嗎? ” 之后的Faster R-CNN解決了這個(gè)問題。

(4) Faster RCNN

2015年,S. Ren等人提出了Faster RCNN檢測(cè)器[20],在Fast RCNN之后不久。Faster RCNN 是第一個(gè)端到端的,也是第一個(gè)接近實(shí)時(shí)的深度學(xué)習(xí)檢測(cè)器(COCO mAP@.5=42.7%,COCO mAP@[.5,.95]=21.9%, VOC07 mAP=73.2%,VOC12 mAP=70.4%)。

Faster RCNN的主要貢獻(xiàn)是引入了區(qū)域提案網(wǎng)絡(luò) (RPN)從而允許幾乎所有的cost-free的區(qū)域提案。從RCNN到Faster RCNN,一個(gè)目標(biāo)檢測(cè)系統(tǒng)中的大部分獨(dú)立塊,如提案檢測(cè)、特征提取、邊界框回歸等,都已經(jīng)逐漸集成到一個(gè)統(tǒng)一的端到端學(xué)習(xí)框架中。

雖然Faster RCNN突破了Fast RCNN的速度瓶頸,但是在后續(xù)的檢測(cè)階段仍然存在計(jì)算冗余。后來提出了多種改進(jìn)方案,包括RFCN和 Light head RCNN。

(5) Feature Pyramid Networks(FPN)

2017年,T.-Y.Lin等人基于Faster RCNN提出了特征金字塔網(wǎng)絡(luò)(FPN)[21]。在FPN之前,大多數(shù)基于深度學(xué)習(xí)的檢測(cè)器只在網(wǎng)絡(luò)的頂層進(jìn)行檢測(cè)。雖然CNN較深層的特征有利于分類識(shí)別,但不利于對(duì)象的定位。

為此,開發(fā)了具有橫向連接的自頂向下體系結(jié)構(gòu),用于在所有級(jí)別構(gòu)建高級(jí)語義。由于CNN通過它的正向傳播,自然形成了一個(gè)特征金字塔,F(xiàn)PN在檢測(cè)各種尺度的目標(biāo)方面顯示出了巨大的進(jìn)步。

在基礎(chǔ)的Faster RCNN系統(tǒng)中使用FPN骨架可在無任何修飾的條件下在MS-COCO數(shù)據(jù)集上以單模型實(shí)現(xiàn)state-of-the-art 的效果(COCO mAP@.5=59.1%,COCO mAP@[.5,.95]= 36.2%)。FPN現(xiàn)在已經(jīng)成為許多最新探測(cè)器的基本組成部分。

基于卷積神經(jīng)網(wǎng)絡(luò)的單級(jí)檢測(cè)器

單階段檢測(cè)的發(fā)展及各類檢測(cè)器的結(jié)構(gòu)[2]

(1) You Only Look Once (YOLO)

YOLO由R. Joseph等人于2015年提出[22]。它是深度學(xué)習(xí)時(shí)代的第一個(gè)單級(jí)檢測(cè)器。YOLO非??欤篩OLO的一個(gè)快速版本運(yùn)行速度為155fps, VOC07 mAP=52.7%,而它的增強(qiáng)版本運(yùn)行速度為45fps, VOC07 mAP=63.4%, VOC12 mAP=57.9%。YOLO是“ You Only Look Once ” 的縮寫。從它的名字可以看出,作者完全拋棄了之前的“提案檢測(cè)+驗(yàn)證”的檢測(cè)范式。

相反,它遵循一個(gè)完全不同的設(shè)計(jì)思路:將單個(gè)神經(jīng)網(wǎng)絡(luò)應(yīng)用于整個(gè)圖像。該網(wǎng)絡(luò)將圖像分割成多個(gè)區(qū)域,同時(shí)預(yù)測(cè)每個(gè)區(qū)域的邊界框和概率。后來R. Joseph在 YOLO 的基礎(chǔ)上進(jìn)行了一系列改進(jìn),其中包括以路徑聚合網(wǎng)絡(luò)(Path aggregation Network, PAN)取代FPN,定義新的損失函數(shù)等,陸續(xù)提出了其 v2、v3及v4版本(截止本文的2020年7月,Ultralytics發(fā)布了“YOLO v5”,但并沒有得到官方承認(rèn)),在保持高檢測(cè)速度的同時(shí)進(jìn)一步提高了檢測(cè)精度。

必須指出的是,盡管與雙級(jí)探測(cè)器相比YOLO的探測(cè)速度有了很大的提高,但它的定位精度有所下降,特別是對(duì)于一些小目標(biāo)而言。YOLO的后續(xù)版本及在它之后提出的SSD更關(guān)注這個(gè)問題。

(2) Single Shot MultiBox Detector (SSD)

SSD由W. Liu等人于2015年提出[23]。這是深度學(xué)習(xí)時(shí)代的第二款單級(jí)探測(cè)器。SSD的主要貢獻(xiàn)是引入了多參考和多分辨率檢測(cè)技術(shù),這大大提高了單級(jí)檢測(cè)器的檢測(cè)精度,特別是對(duì)于一些小目標(biāo)。SSD在檢測(cè)速度和準(zhǔn)確度上都有優(yōu)勢(shì)(VOC07 mAP=76.8%,VOC12 mAP=74.9%, COCO mAP@.5=46.5%,mAP@[.5,.95]=26.8%,快速版本運(yùn)行速度為59fps) 。SSD與其他的檢測(cè)器的主要區(qū)別在于,前者在網(wǎng)絡(luò)的不同層檢測(cè)不同尺度的對(duì)象,而后者僅在其頂層運(yùn)行檢測(cè)。

(3) RetinaNet

單級(jí)檢測(cè)器有速度快、結(jié)構(gòu)簡(jiǎn)單的優(yōu)點(diǎn),但在精度上多年來一直落后于雙級(jí)檢測(cè)器。T.-Y.Lin等人發(fā)現(xiàn)了背后的原因,并在2017年提出了RetinaNet[24]。他們的觀點(diǎn)為精度不高的原因是在密集探測(cè)器訓(xùn)練過程中極端的前景-背景階層不平衡(the extreme foreground-background class imbalance)現(xiàn)象。

為此,他們?cè)赗etinaNet中引入了一個(gè)新的損失函數(shù) “ 焦點(diǎn)損失(focal loss)”,通過對(duì)標(biāo)準(zhǔn)交叉熵?fù)p失的重構(gòu),使檢測(cè)器在訓(xùn)練過程中更加關(guān)注難分類的樣本。焦損耗使得單級(jí)檢測(cè)器在保持很高的檢測(cè)速度的同時(shí),可以達(dá)到與雙級(jí)檢測(cè)器相當(dāng)?shù)木取?COCO mAP@.5=59.1%,mAP@[.5, .95]=39.1% )。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:目標(biāo)檢測(cè)二十年間的那些事兒——從傳統(tǒng)方法到深度學(xué)習(xí)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    1、簡(jiǎn)介 人工智能圖像識(shí)別是人工智能領(lǐng)域的個(gè)重要分支,它涉及計(jì)算機(jī)視覺、深度學(xué)習(xí)、機(jī)器學(xué)習(xí)等多個(gè)領(lǐng)域的知識(shí)和技術(shù)。圖像識(shí)別主要是處理具有
    發(fā)表于 12-19 14:33

    激光雷達(dá)技術(shù)的基于深度學(xué)習(xí)的進(jìn)步

    信息。這使得激光雷達(dá)在自動(dòng)駕駛、無人機(jī)、機(jī)器人等領(lǐng)域具有廣泛的應(yīng)用前景。 二、深度學(xué)習(xí)技術(shù)的發(fā)展 深度學(xué)習(xí)是機(jī)器
    的頭像 發(fā)表于 10-27 10:57 ?366次閱讀

    目標(biāo)檢測(cè)與識(shí)別技術(shù)有哪些

    目標(biāo)檢測(cè)與識(shí)別技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的重要研究方向,廣泛應(yīng)用于安全監(jiān)控、自動(dòng)駕駛、醫(yī)療診斷、工業(yè)自動(dòng)化等領(lǐng)域。 目標(biāo)檢測(cè)與識(shí)別
    的頭像 發(fā)表于 07-17 09:40 ?589次閱讀

    目標(biāo)檢測(cè)與識(shí)別技術(shù)的關(guān)系是什么

    目標(biāo)檢測(cè)與識(shí)別技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的兩個(gè)重要研究方向,它們之間存在著密切的聯(lián)系和相互依賴的關(guān)系。 目標(biāo)
    的頭像 發(fā)表于 07-17 09:38 ?580次閱讀

    慧視小目標(biāo)識(shí)別算法 解決目標(biāo)檢測(cè)中的老大難問題

    隨著深度學(xué)習(xí)和人工智能技術(shù)的興起與技術(shù)成熟,大批如FasterR-CNN、RetinaNet、YOLO等可以在工業(yè)界使用的
    的頭像 發(fā)表于 07-17 08:29 ?477次閱讀
    慧視小<b class='flag-5'>目標(biāo)</b>識(shí)別算法   解決<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)</b>中的老大難問題

    深度學(xué)習(xí)在工業(yè)機(jī)器視覺檢測(cè)中的應(yīng)用

    隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,其在工業(yè)機(jī)器視覺檢測(cè)中的應(yīng)用日益廣泛,并展現(xiàn)出巨大的潛力。工業(yè)機(jī)器視覺檢測(cè)是工業(yè)自動(dòng)化領(lǐng)域的重要組成部分,通過圖
    的頭像 發(fā)表于 07-08 10:40 ?1042次閱讀

    基于深度學(xué)習(xí)的無人機(jī)檢測(cè)與識(shí)別技術(shù)

    隨著無人機(jī)技術(shù)的快速發(fā)展,無人機(jī)在軍事、民用、商業(yè)等多個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,無人機(jī)的廣泛使用也帶來了諸多挑戰(zhàn),如空域安全、隱私保護(hù)等問題。因此,開發(fā)高效、準(zhǔn)確的無人機(jī)檢測(cè)與識(shí)別技術(shù)顯得尤為重要。本文將深入探討基于
    的頭像 發(fā)表于 07-08 10:32 ?1206次閱讀

    基于AI深度學(xué)習(xí)的缺陷檢測(cè)系統(tǒng)

    在工業(yè)生產(chǎn)中,缺陷檢測(cè)是確保產(chǎn)品質(zhì)量的關(guān)鍵環(huán)節(jié)。傳統(tǒng)的人工檢測(cè)方法不僅效率低下,且易受人為因素影響,導(dǎo)致誤檢和漏檢問題頻發(fā)。隨著人工智能技術(shù)的飛速發(fā)展,特別是深度
    的頭像 發(fā)表于 07-08 10:30 ?1364次閱讀

    基于深度學(xué)習(xí)的小目標(biāo)檢測(cè)

    在計(jì)算機(jī)視覺領(lǐng)域,目標(biāo)檢測(cè)直是研究的熱點(diǎn)和難點(diǎn)之。特別是在小目標(biāo)檢測(cè)方面,由于小
    的頭像 發(fā)表于 07-04 17:25 ?856次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對(duì)比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動(dòng)力。它們各自以其獨(dú)特的方式推動(dòng)著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管
    的頭像 發(fā)表于 07-01 11:40 ?1324次閱讀

    深入了解目標(biāo)檢測(cè)深度學(xué)習(xí)算法的技術(shù)細(xì)節(jié)

    本文將討論目標(biāo)檢測(cè)的基本方法(窮盡搜索、R-CNN、FastR-CNN和FasterR-CNN),并嘗試?yán)斫饷總€(gè)模型的技術(shù)細(xì)節(jié)。為了讓經(jīng)驗(yàn)水平各不相同的讀者都能夠理解,文章不會(huì)使用任何公式來進(jìn)行講解
    的頭像 發(fā)表于 04-30 08:27 ?336次閱讀
    深入了解<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測(cè)深度</b><b class='flag-5'>學(xué)習(xí)</b>算法的<b class='flag-5'>技術(shù)</b>細(xì)節(jié)

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)檢測(cè)、識(shí)別和分類等領(lǐng)域。近年來,研究人員開始在視覺SLAM算法
    發(fā)表于 04-23 17:18 ?1284次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語義SLAM

    訊維融合通信:一場(chǎng)革命性的通信方式變革

    訊維融合通信確實(shí)引發(fā)了一場(chǎng)革命性的通信方式變革。它的核心技術(shù)主要體現(xiàn)在高度集成化和智能化上,通過融合各種通信技術(shù)和手段,打破了傳統(tǒng)通信方式的局限性,為用戶提供了更加高效、便捷和靈活的通
    的頭像 發(fā)表于 04-12 16:29 ?384次閱讀

    中國(guó)科技少年的英雄夢(mèng)想,從一場(chǎng)ICT大賽啟程

    一場(chǎng)華為ICT大賽,科技少年之夢(mèng)的起點(diǎn)與歸途
    的頭像 發(fā)表于 04-08 14:22 ?575次閱讀
    中國(guó)科技少年的英雄夢(mèng)想,從<b class='flag-5'>一場(chǎng)</b>ICT大賽啟程

    深度學(xué)習(xí)檢測(cè)目標(biāo)常用方法

    深度學(xué)習(xí)的效果在某種意義上是靠大量數(shù)據(jù)喂出來的,小目標(biāo)檢測(cè)的性能同樣也可以通過增加訓(xùn)練集中小目標(biāo)樣本的種類和數(shù)量來提升。
    發(fā)表于 03-18 09:57 ?710次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>檢測(cè)</b>小<b class='flag-5'>目標(biāo)</b>常用方法
    RM新时代网站-首页