近日,南開大學(xué)、牛津大學(xué)和加州大學(xué)默塞德分校的研究人員共同提出了一種面向目標(biāo)檢測(cè)任務(wù)的新模塊Res2Net,新模塊可以和現(xiàn)有其他優(yōu)秀模塊輕松整合,在不增加計(jì)算負(fù)載量的情況下,在ImageNet、CIFAR-100等數(shù)據(jù)集上的測(cè)試性能超過了ResNet。
2015年,由何愷明等四位華人所提出的ResNet一戰(zhàn)成名,可極快的加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。
而近日,由南開大學(xué)、牛津大學(xué)和加州大學(xué)默塞德分校的研究人員共同提出的Res2Net,可以和現(xiàn)有其他優(yōu)秀模塊輕松整合:在不增加計(jì)算負(fù)載量的情況下,在ImageNet、CIFAR-100等數(shù)據(jù)集上的測(cè)試性能超過了ResNet。
論文地址:
https://arxiv.org/pdf/1904.01169.pdf
關(guān)于代表性計(jì)算機(jī)視覺任務(wù)的進(jìn)一步消融研究和實(shí)驗(yàn)結(jié)果,即目標(biāo)檢測(cè),類激活 mapping和顯著目標(biāo)檢測(cè),進(jìn)一步驗(yàn)證了Res2Net相對(duì)于現(xiàn)有技術(shù)的基線方法的優(yōu)越性。
面向視覺任務(wù)的多尺度表示對(duì)于目標(biāo)檢測(cè)、語義分割和顯著目標(biāo)檢測(cè)任務(wù)具有重大意義。通過CNN新模塊Res2Net,能夠?qū)崿F(xiàn)與比以往優(yōu)秀的基于CNNbackbone的模型(如ResNet,ResNeXt和DLA)更好的性能表現(xiàn)。
Res2Net:計(jì)算負(fù)載不增加,特征提取能力更強(qiáng)大
在多個(gè)尺度上表示特征對(duì)于許多視覺任務(wù)非常重要。卷積神經(jīng)網(wǎng)絡(luò)(CNN) backbone 的最新進(jìn)展不斷展示出更強(qiáng)的多尺度表示能力,從而在廣泛的應(yīng)用中實(shí)現(xiàn)一致的性能提升。然而,大多數(shù)現(xiàn)有方法以分層方式(layer-wise)表示多尺度特征。
在本文中,研究人員在一個(gè)單個(gè)殘差塊內(nèi)構(gòu)造分層的殘差類連接,為CNN提出了一種新的構(gòu)建模塊,即Res2Net——以更細(xì)粒度(granular level)表示多尺度特征,并增加每個(gè)網(wǎng)絡(luò)層的感受野(receptive fields)范圍。
上圖中,左側(cè)為CNN網(wǎng)絡(luò)架構(gòu)的基本構(gòu)成,右側(cè)為本文新提出的Res2Net模塊。新模塊具備更強(qiáng)的多規(guī)模特征提取能力,但計(jì)算負(fù)載量與左側(cè)架構(gòu)類似。具體而言,新模塊用一個(gè)較小的3×3過濾器取代了過濾器組,同時(shí)可以將不同的過濾器組以層級(jí)殘差式風(fēng)格連接。模塊內(nèi)部的連接形式與殘差網(wǎng)絡(luò)(ResNet)類似,故命名為Res2Net。
與其他現(xiàn)有模塊的整合
本文所提出的Res2Net模塊可以融合到最先進(jìn)的backbone CNN模型中,例如ResNet,ResNeXt和DLA。研究人員在所有這些模型上評(píng)估 Res2Net 模塊,并在廣泛使用的數(shù)據(jù)集(例如CIFAR-100和ImageNet)上展示相對(duì)于基線模型的一致性能提升。
由于單獨(dú)的Res2Net模塊對(duì)于整體網(wǎng)絡(luò)結(jié)構(gòu)沒有特定的要求,Res2Net模塊的多尺度表示能力也和CNN的分層特征聚合模型彼此獨(dú)立,所以可以很容易地將Res2Net模塊集成到現(xiàn)有的其他優(yōu)秀CNN模型中。比如ResNet,ResNeXt 和DLA 等。集成后的模型可稱為Res2Net,Res2NeXt,和Res2Net-DLA。
Res2Net模塊性能及測(cè)試結(jié)果
ImageNet數(shù)據(jù)集測(cè)試結(jié)果
ImageNet數(shù)據(jù)集Top1和Top5測(cè)試結(jié)果
Res2Net-50在ImageNet數(shù)據(jù)集不同規(guī)模測(cè)試錯(cuò)誤率結(jié)果。其中參數(shù)w為過濾器寬度,s為scale
CIFAR-100數(shù)據(jù)集測(cè)試結(jié)果
CIFAR-100數(shù)據(jù)集Top1錯(cuò)誤率,以及模型大小
CIFAR-100數(shù)據(jù)集不同模型大小下的檢測(cè)準(zhǔn)確率
ResNet-50和Res2Net-50的類激活映射可視化對(duì)比
ResNet-101 和Res2Net-101的語義分割結(jié)果的可視化對(duì)比
ResNet-50 和Res2Net-50的顯著目標(biāo)檢測(cè)結(jié)果對(duì)比(圖7)
結(jié)論及未來方向
Res2Net結(jié)構(gòu)簡(jiǎn)單,性能優(yōu)秀,可以進(jìn)一步探索CNN在更細(xì)粒度級(jí)別的多尺度表示能力。 Res2Net揭示了一個(gè)新的維度,即“尺度”(Scale),除了深度,寬度和基數(shù)的現(xiàn)有維度之外,“規(guī)?!笔且粋€(gè)必不可少的更有效的因素。
Res2Net模塊可以很容易地與現(xiàn)有的最新模塊整合。對(duì)CIFAR100和ImageNet基準(zhǔn)測(cè)試的圖像分類結(jié)果表明,使用Res2Net模塊的網(wǎng)絡(luò)始終在與對(duì)手的競(jìng)爭(zhēng)中表現(xiàn)出更優(yōu)秀的性能,這些對(duì)手包括ResNet,ResNeXt,DLA等。
Res2Net性能上的優(yōu)越性已經(jīng)在幾個(gè)具有代表性的計(jì)算機(jī)視覺任務(wù)體現(xiàn)出來,包括類激活映射,對(duì)象檢測(cè)和顯著對(duì)象檢測(cè)等。多尺度表示對(duì)于未來開拓更廣泛的應(yīng)用領(lǐng)域至關(guān)重要。
本文相關(guān)源代碼將在論文被收稿后公開發(fā)布。
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4771瀏覽量
100712 -
計(jì)算機(jī)視覺
+關(guān)注
關(guān)注
8文章
1698瀏覽量
45972 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1208瀏覽量
24689
原文標(biāo)題:超越ResNet:南開提出Res2Net,不增計(jì)算負(fù)載,性能全面升級(jí)!
文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論