介紹
模板匹配是一個(gè)圖像處理問題,當(dāng)其姿態(tài)(X,Y,θ)未知時(shí),使用另一張搜索圖像中的模板圖像找到對(duì)象的位置。在本文中,我們實(shí)現(xiàn)了一種算法,該算法使用對(duì)象的邊緣信息來識(shí)別搜索圖像中的對(duì)象。
背景
由于其速度和可靠性問題,模板匹配本質(zhì)上是一個(gè)棘手的問題。當(dāng)對(duì)象部分可見或與其他對(duì)象混合時(shí),該解決方案應(yīng)對(duì)亮度變化具有魯棒性,最重要的是,該算法應(yīng)具有計(jì)算效率。解決這個(gè)問題主要有兩種方法,基于灰度值的匹配(或基于區(qū)域的匹配)和基于特征的匹配(非基于區(qū)域的匹配)。
基于灰度值的方法:在基于灰度值的匹配中,歸一化互相關(guān) (NCC) 算法早在過去就已為人所知。這通常在每一步通過減去平均值并除以標(biāo)準(zhǔn)偏差來完成。模板 t(x, y) 與子圖像 f(x, y) 的互相關(guān)為:
其中 n 是 t(x, y) 和 f(x, y) 中的像素?cái)?shù)。[維基]
盡管該方法對(duì)線性光照變化具有魯棒性,但當(dāng)對(duì)象部分可見或?qū)ο笈c其他對(duì)象混合時(shí),該算法將失敗。此外,該算法的計(jì)算成本很高,因?yàn)樗枰?jì)算模板圖像中所有像素與搜索圖像之間的相關(guān)性。
基于特征的方法:在圖像處理領(lǐng)域中使用了幾種基于特征的模板匹配方法。與基于邊緣的物體識(shí)別一樣,物體邊緣是用于匹配的特征,在廣義霍夫變換中,物體的幾何特征將用于匹配。
在本文中,我們實(shí)現(xiàn)了一種算法,該算法使用對(duì)象的邊緣信息來識(shí)別搜索圖像中的對(duì)象。此實(shí)現(xiàn)使用開源計(jì)算機(jī)視覺庫作為平臺(tái)。
編譯示例代碼
我們使用 OpenCV 2.0 和 Visual Studio 2008 來開發(fā)此代碼。要編譯示例代碼,我們需要安裝 OpenCV。
OpenCV 可以從這里免費(fèi)下載。OpenCV的(開放源碼?動(dòng)態(tài)數(shù)值V ision)是一種用于實(shí)時(shí)計(jì)算機(jī)視覺編程功能的庫。下載 OpenCV 并將其安裝在您的系統(tǒng)中。安裝信息可以從這里閱讀。
我們需要配置我們的 Visual Studio 環(huán)境??梢詮拇颂庨喿x此信息。
算法
在這里,我們將解釋基于邊緣的模板匹配技術(shù)。邊緣可以定義為數(shù)字圖像中圖像亮度急劇變化或具有不連續(xù)性的點(diǎn)。從技術(shù)上講,它是一種離散微分運(yùn)算,計(jì)算圖像強(qiáng)度函數(shù)的梯度近似值。
邊緣檢測的方法有很多,但大多數(shù)可以分為兩類:基于搜索的和基于過零的?;谒阉鞯姆椒ㄍㄟ^首先計(jì)算邊緣強(qiáng)度的度量來檢測邊緣,通常是一階導(dǎo)數(shù)表達(dá)式,例如梯度幅度,然后使用計(jì)算的局部方向的估計(jì)來搜索梯度幅度的局部方向最大值邊緣,通常是梯度方向。在這里,我們使用了一種由 Sobel 實(shí)現(xiàn)的方法,稱為 Sobel 算子。操作員計(jì)算每個(gè)點(diǎn)的圖像強(qiáng)度梯度,給出從明到暗的最大可能增加方向以及該方向的變化率。
我們?cè)?X 方向和 Y 方向使用這些梯度或?qū)?shù)進(jìn)行匹配。
該算法包括兩個(gè)步驟。首先,我們需要為模板圖像創(chuàng)建一個(gè)基于邊緣的模型,然后我們使用這個(gè)模型在搜索圖像中進(jìn)行搜索。
創(chuàng)建基于邊緣的模板模型
我們首先從模板圖像的邊緣創(chuàng)建一個(gè)數(shù)據(jù)集或模板模型,用于在搜索圖像中查找該對(duì)象的姿態(tài)。
在這里,我們使用 Canny 邊緣檢測方法的變體來查找邊緣。您可以在此處閱讀有關(guān) Canny 邊緣檢測的更多信息。對(duì)于邊緣提取,Canny 使用以下步驟:
第一步:求圖像的強(qiáng)度梯度
在模板圖像上使用 Sobel 過濾器,它返回 X (Gx) 和 Y (Gy) 方向的梯度。根據(jù)這個(gè)梯度,我們將使用以下公式計(jì)算邊緣大小和方向:
我們正在使用 OpenCV 函數(shù)來查找這些值。
cvSobel( src, gx, 1,0, 3 ); //gradient in X direction
cvSobel( src, gy, 0, 1, 3 ); //gradient in Y direction
for( i = 1; i < Ssize.height-1; i++ )
{
for( j = 1; j < Ssize.width-1; j++ )
{
_sdx = (short*)(gx->data.ptr + gx->step*i);
_sdy = (short*)(gy->data.ptr + gy->step*i);
fdx = _sdx[j]; fdy = _sdy[j];
// read x, y derivatives
//Magnitude = Sqrt(gx^2 +gy^2)
MagG = sqrt((float)(fdx*fdx) + (float)(fdy*fdy));
//Direction = invtan (Gy / Gx)
direction =cvFastArctan((float)fdy,(float)fdx);
magMat[i][j] = MagG;
if(MagG>MaxGradient)
MaxGradient=MagG;
// get maximum gradient value for normalizing.
// get closest angle from 0, 45, 90, 135 set
if ( (direction>0 && direction < 22.5) ||
(direction >157.5 && direction < 202.5) ||
(direction>337.5 && direction<360) )
direction = 0;
else if ( (direction>22.5 && direction < 67.5) ||
(direction >202.5 && direction <247.5) )
direction = 45;
else if ( (direction >67.5 && direction < 112.5)||
(direction>247.5 && direction<292.5) )
direction = 90;
else if ( (direction >112.5 && direction < 157.5)||
(direction>292.5 && direction<337.5) )
direction = 135;
else
direction = 0;
orients[count] = (int)direction;
count++;
}
}
一旦找到邊緣方向,下一步就是關(guān)聯(lián)圖像中可以追蹤的邊緣方向。有四種可能的方向來描述周圍的像素:0 度、45 度、90 度和 135 度。我們將所有方向分配給這些角度中的任何一個(gè)。
步驟 2:應(yīng)用非極大值抑制
找到邊緣方向后,我們會(huì)做一個(gè)非極大值抑制算法。非極大值抑制沿邊緣方向跟蹤左右像素,如果當(dāng)前像素幅度小于左右像素幅度,則抑制當(dāng)前像素幅度。這將導(dǎo)致圖像變薄。
for( i = 1; i < Ssize.height-1; i++ )
{
for( j = 1; j < Ssize.width-1; j++ )
{
switch ( orients[count] )
{
case 0:
leftPixel = magMat[i][j-1];
rightPixel = magMat[i][j+1];
break;
case 45:
leftPixel = magMat[i-1][j+1];
rightPixel = magMat[i+1][j-1];
break;
case 90:
leftPixel = magMat[i-1][j];
rightPixel = magMat[i+1][j];
break;
case 135:
leftPixel = magMat[i-1][j-1];
rightPixel = magMat[i+1][j+1];
break;
}
// compare current pixels value with adjacent pixels
if (( magMat[i][j] < leftPixel ) || (magMat[i][j] < rightPixel ) )
(nmsEdges->data.ptr + nmsEdges->step*i)[j]=0;
Else
(nmsEdges->data.ptr + nmsEdges->step*i)[j]=
(uchar)(magMat[i][j]/MaxGradient*255);
count++;
}
}
第三步:做滯后閾值
用滯后做閾值需要兩個(gè)閾值:高和低。我們應(yīng)用高閾值來標(biāo)記那些我們可以相當(dāng)確定是真實(shí)的邊緣。從這些開始,使用先前導(dǎo)出的方向信息,可以通過圖像追蹤其他邊緣。在跟蹤邊緣時(shí),我們應(yīng)用較低的閾值,只要我們找到一個(gè)起點(diǎn),我們就可以跟蹤邊緣的微弱部分。
_sdx = (short*)(gx->data.ptr + gx->step*i);
_sdy = (short*)(gy->data.ptr + gy->step*i);
fdx = _sdx[j]; fdy = _sdy[j];
MagG = sqrt(fdx*fdx + fdy*fdy); //Magnitude = Sqrt(gx^2 +gy^2)
DirG =cvFastArctan((float)fdy,(float)fdx); //Direction = tan(y/x)
////((uchar*)(imgGDir->imageData + imgGDir->widthStep*i))[j]= MagG;
flag=1;
if(((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j]) < maxContrast)
{
if(((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j])< minContrast)
{
(nmsEdges->data.ptr + nmsEdges->step*i)[j]=0;
flag=0; // remove from edge
////((uchar*)(imgGDir->imageData + imgGDir->widthStep*i))[j]=0;
}
else
{ // if any of 8 neighboring pixel is not greater than max contraxt remove from edge
if( (((double)((nmsEdges->data.ptr + nmsEdges->step*(i-1)))[j-1]) < maxContrast) &&
(((double)((nmsEdges->data.ptr + nmsEdges->step*(i-1)))[j]) < maxContrast) &&
(((double)((nmsEdges->data.ptr + nmsEdges->step*(i-1)))[j+1]) < maxContrast) &&
(((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j-1]) < maxContrast) &&
(((double)((nmsEdges->data.ptr + nmsEdges->step*i))[j+1]) < maxContrast) &&
(((double)((nmsEdges->data.ptr + nmsEdges->step*(i+1)))[j-1]) < maxContrast) &&
(((double)((nmsEdges->data.ptr + nmsEdges->step*(i+1)))[j]) < maxContrast) &&
(((double)((nmsEdges->data.ptr + nmsEdges->step*(i+1)))[j+1]) < maxContrast))
{
(nmsEdges->data.ptr + nmsEdges->step*i)[j]=0;
flag=0;
////((uchar*)(imgGDir->imageData + imgGDir->widthStep*i))[j]=0;
}
}
}
第 4 步:保存數(shù)據(jù)集
提取邊緣后,我們將所選邊緣的 X 和 Y 導(dǎo)數(shù)與坐標(biāo)信息一起保存為模板模型。這些坐標(biāo)將重新排列以反映作為重心的起點(diǎn)。
找到基于邊的模板模型
算法中的下一個(gè)任務(wù)是使用模板模型在搜索圖像中找到對(duì)象。我們可以看到我們從包含一組點(diǎn)的模板圖像創(chuàng)建的模型:
,以及它在 X 和 Y 方向上的梯度
,其中i = 1…n,n是模板 (T) 數(shù)據(jù)集中的元素?cái)?shù)。
我們還可以在搜索圖像 (S) 中找到梯度
,其中 u = 1.。。搜索圖像中的行數(shù),v = 1.。。搜索圖像中的列數(shù)。
在匹配過程中,應(yīng)使用相似性度量將模板模型與所有位置的搜索圖像進(jìn)行比較。相似性度量背后的思想是取模板圖像梯度向量的所有歸一化點(diǎn)積之和,并在模型數(shù)據(jù)集中的所有點(diǎn)上搜索圖像。這會(huì)導(dǎo)致搜索圖像中每個(gè)點(diǎn)的分?jǐn)?shù)。這可以表述如下:
如果模板模型和搜索圖像之間存在完美匹配,則此函數(shù)將返回分?jǐn)?shù) 1。該分?jǐn)?shù)對(duì)應(yīng)于搜索圖像中可見的對(duì)象部分。如果搜索圖像中不存在對(duì)象,則分?jǐn)?shù)將為 0。
cvSobel( src, Sdx, 1, 0, 3 ); // find X derivatives
cvSobel( src, Sdy, 0, 1, 3 ); // find Y derivatives
for( i = 0; i < Ssize.height; i++ )
{
for( j = 0; j < Ssize.width; j++ )
{
partialSum = 0; // initilize partialSum measure
for(m=0;m
{
curX = i + cordinates[m].x ; // template X coordinate
curY = j + cordinates[m].y ; // template Y coordinate
iTx = edgeDerivativeX[m]; // template X derivative
iTy = edgeDerivativeY[m]; // template Y derivative
if(curX<0 ||curY<0||curX>Ssize.height-1 ||curY>Ssize.width-1)
continue;
_Sdx = (short*)(Sdx->data.ptr + Sdx->step*(curX));
_Sdy = (short*)(Sdy->data.ptr + Sdy->step*(curX));
iSx=_Sdx[curY]; // get curresponding X derivative from source image
iSy=_Sdy[curY];// get curresponding Y derivative from source image
if((iSx!=0 || iSy!=0) && (iTx!=0 || iTy!=0))
{
//partial Sum = Sum of(((Source X derivative* Template X drivative)
//+ Source Y derivative * Template Y derivative)) / Edge
//magnitude of(Template)* edge magnitude of(Source))
partialSum = partialSum + ((iSx*iTx)+(iSy*iTy))*
(edgeMagnitude[m] * matGradMag[curX][curY]);
}
在實(shí)際情況下,我們需要加快搜索過程。這可以使用各種方法來實(shí)現(xiàn)。第一種方法是使用平均的屬性。在尋找相似性度量時(shí),如果我們可以為相似性度量設(shè)置一個(gè)最小分?jǐn)?shù)(Smin),我們就不需要評(píng)估模板模型中的所有點(diǎn)。為了檢查特定點(diǎn) J 處的部分分?jǐn)?shù) Su,v,我們必須找到部分總和 Sm。點(diǎn) m 處的 Sm 可以定義如下:
很明顯,和的剩余項(xiàng)小于或等于 1。因此,如果 ,我們可以停止評(píng)估
。
另一個(gè)標(biāo)準(zhǔn)可以是任何點(diǎn)的部分分?jǐn)?shù)應(yīng)大于最低分?jǐn)?shù)。即,
。使用此條件時(shí),匹配將非??臁?/span>但問題是,如果先檢查對(duì)象的缺失部分,部分和會(huì)很低。在這種情況下,對(duì)象的該實(shí)例不會(huì)被視為匹配項(xiàng)。我們可以用另一個(gè)標(biāo)準(zhǔn)修改它,我們用安全停止標(biāo)準(zhǔn)檢查模板模型的第一部分,用硬標(biāo)準(zhǔn)檢查其余部分,
.用戶可以指定貪婪參數(shù) (g),其中使用硬標(biāo)準(zhǔn)檢查模板模型的部分。所以如果g=1,模板模型中的所有點(diǎn)都用硬標(biāo)準(zhǔn)檢查,如果g=0,所有點(diǎn)將只用安全標(biāo)準(zhǔn)檢查。我們可以將這個(gè)過程表述如下。
部分分?jǐn)?shù)的評(píng)估可以在以下位置停止:
// stoping criterias to search for model
double normMinScore = minScore /noOfCordinates; // precompute minumum score
double normGreediness = ((1- greediness * minScore)/(1-greediness)) /noOfCordinates;
// precompute greedniness
sumOfCoords = m + 1;
partialScore = partialSum /sumOfCoords ;
// check termination criteria
// if partial score score is less than the score than
// needed to make the required score at that position
// break serching at that coordinate.
if( partialScore < (MIN((minScore -1) +
normGreediness*sumOfCoords,normMinScore* sumOfCoords)))
break;
這種相似性度量有幾個(gè)優(yōu)點(diǎn):相似性度量對(duì)非線性光照變化是不變的,因?yàn)樗刑荻认蛄慷际菤w一化的。由于邊緣過濾沒有分割,它將顯示對(duì)光照任意變化的真實(shí)不變性。更重要的是,當(dāng)對(duì)象部分可見或與其他對(duì)象混合時(shí),這種相似性度量是穩(wěn)健的。
增強(qiáng)功能
該算法有多種可能的增強(qiáng)。為了進(jìn)一步加快搜索過程,可以使用金字塔方法。在這種情況下,搜索以低分辨率和小圖像尺寸開始。這對(duì)應(yīng)于金字塔的頂部。如果在此階段搜索成功,則在金字塔的下一層繼續(xù)搜索,該層代表更高分辨率的圖像。以這種方式,繼續(xù)搜索,從而細(xì)化結(jié)果,直到達(dá)到原始圖像大小,即到達(dá)金字塔底部。
通過擴(kuò)展旋轉(zhuǎn)和縮放算法,可以實(shí)現(xiàn)另一種增強(qiáng)。這可以通過創(chuàng)建用于旋轉(zhuǎn)和縮放的模板模型并使用所有這些模板模型執(zhí)行搜索來完成。
原文作者:Shiju PK 原文鏈接:
https://www.codeproject.com/articles/99457/edge-based-template-matching
翻譯整理:Color Space
編輯:jq
-
邊緣檢測
+關(guān)注
關(guān)注
0文章
92瀏覽量
18204 -
OpenCV
+關(guān)注
關(guān)注
31文章
634瀏覽量
41337
原文標(biāo)題:OpenCV實(shí)現(xiàn)基于邊緣的模板匹配--適用部分遮擋和光照變化情形(附源碼)
文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論