專利名稱::基于核標度切維數約簡的合成孔徑雷達圖像目標識別方法
技術領域:
:本發(fā)明屬于圖像處理
技術領域:
,涉及目標識別方法,可應用于合成孔徑雷達SAR圖像目標識別與人臉識別。
背景技術:
:合成孔徑雷達SAR技術在對地面目標,特別是對靜止目標探測方面的獨特優(yōu)勢,以及其在現代戰(zhàn)場感知、對地打擊等領域的良好應用前景,使得基于SAR圖像的自動目標識別技術ART受到了越來越多的重視。目前國內外有許多研究機構都開展了針對SAR圖像的自動目標識別技術的研究,其中許多研究工作都是基于運動、靜止目標探測和識別MovingandStationaryTargetAcquisitionandRecognition,MSTAR數據庫進行的,該數據庫是由美國國防部高級研究計劃局和空間實驗室提供的,對SAR圖像目標識別的研究發(fā)揮了非常重要的作用。針對該數據庫的目標識別過程一般分為預處理、特征提取和分類識別三個步驟。預處理的目的在于降低對目標方位變化等的敏感度以提高目標識別系統的識別精度,一般包括噪聲濾除、目標與背景分割等。從廣義上來說,特征提取是指將原始數據從高維空間映射到低維空間的一種線性或非線性的變換,用更少的信息有效地表示原始數據。特征提取的好壞很大程度上影響著分類性能。目前,針對MSTAR數據庫的特征提取方法有主分量分析、核主分量分析、Radon變換、核Fisher判別分析等,分類識別方法有模板匹配方法、基于貝葉斯網絡的方法、基于隱馬爾可夫模型的識別方法、神經網絡、以及支撐矢量機等。2003年,韓萍等人提出了一種基于KPCA的SAR目標特征提取和識別方法。KPCA即核主分量分析,是一種無監(jiān)督的維數約簡方法,用這種方法得到的特征只能有效地表示原始數據,而不具有將數據在低維子空間有效分離的功能。有監(jiān)督的維數約簡方法中Fisher線性判別分析是最常見的,與它相對應的非線性方法是核Fisher判別分析。Fisher線性判別分析是在Fisher判別準則函數取極值的條件下,求得一個最佳鑒別方法,然后將數據從高維特征向量投影到該最佳鑒別方向上,構成一維的鑒別特征空間,于是數據分類可在一維空間中進行。針對多類問題,可用多維空間表示。核Fisher判別分析是在Fisher線性判別分析基礎上引入核函數,是核學習方法的思想與Fisher線性判別分析算法相結合的產物。該方法由Mika等人于1999年提出,首先把數據非線性地映射到某個特征空間,然后在這個特征空間中進行Fisher線性判別,這樣就隱含地實現了對原輸入空間的非線性判別。曾有學者將核Fisher判別分析用于雷達目標識別。但是核Fisher判別分析與Fisher線性判別分析都是基于每類樣本都是服從高斯分布的假設,這個假設限制了核Fisher判別分析與Fisher線性判別分析在實際中的應用。
發(fā)明內容本發(fā)明的目的在于克服現有技術的不足,提出一種基于核標度切維數約簡的合成孔徑雷達圖像目標識別方法,以在不用考慮圖像在原始空間的分布的情況下,把原始圖像映射到一個能有效區(qū)分不同類別的低維空間,提高SAR圖像目標識別精度。實現本發(fā)明目的的技術方案是用核標度切維數約簡方法對預處理后的數據進行特征提取,進而對目標進行識別,具體步驟包括(1)分別對選定的已知類別信息的圖像和輸入的所有待測試圖像進行預處理,得到預處理后的訓練樣本集χ={x.,/.^ieRf和測試樣本集^=(Xiy)^ieR^,其中Xi和χ/分別表示第i個訓練樣本和第j個測試樣本行向量,Ii是第i個訓練樣本所屬的類別標號,N和M分別是訓練樣本個數和測試樣本個數,K是所有樣本原始特征維數,R表示實數域;(2)采用高斯核函數將所有的訓練樣本映射到高維特征空間,得到特征空間中的訓練集S=(Si)^1,其中Si表示第i個訓練樣本Xi在特征空間的特征向量;(3)將S作為輸<formula>formulaseeoriginaldocumentpage5</formula>入,構造類內不相似性矩陣人=Σap和類間不相似性矩陣c=ZcP,p-\p=l其中<formula>formulaseeoriginaldocumentpage5</formula><formula>formulaseeoriginaldocumentpage5</formula>Vp表示訓練樣本集的第ρ個子集,&表示Vp的補集,ηρ表示Vp中樣本點數,Si、Sj分別表示Vp中第i個訓練樣本Xi和第j個訓練樣本\在特征空間中的特征向量,表示5中第j個樣本點X^在特征空間中的特征向量,η。ω表示采用高斯核函數映射后的特征空間中的訓練樣本"^所在類的樣本數,其中c表示訓練樣本集一共分為c類,T表示轉置;(4)用類內不相似性矩陣A和類間不相似性矩陣C構造基于核標度切的拉普拉斯矩陣L=(k+cy'c;(5)對基于核標度切的拉普拉斯矩陣L進行特征分解,從大到小依次取前k個特征值所對應的特征向量構成相應的投影矩陣W=Iw1,…,wk},其中k為需要的特征維數;(6)采用高斯核函數將所有的測試樣本映射到高維特征空間,得到特征空間中的(、M測試集S=(Siy)^i,其中<=[^i,…,Ν]為第j個測試樣本χ/在特征空間中的特征向量,4=expj121卜第j個測試樣本和第i個訓練樣本之間的相似度,i=2(7{1,…,N},N和M分別是訓練樣本個數和測試樣本個數,其中χ/和Xi分別為第j個測試樣本和第i個訓練樣本,ο為高斯核參數;(7)分別將訓練樣本集和測試樣本集投影到投影矩陣W所張成的空間,得到投影后新的訓練樣本集Y={yj^和新的測試樣本集γ=Iyiy^l1其中L=<Si-ff>為第i個訓練樣本新的特征向量,Si為訓練樣本集第i個訓練樣本在特征空間中的特征向量,y)=〈s^W〉為第j個測試樣本新的特征向量,s/為測試樣本集第j個測試樣本在特征空間中的特征向量;(8)將新的訓練樣本集Y和新的測試樣本集Yt輸入到支撐矢量機,得到測試圖像的識別結果{/ΙρΛ其中i/表示第j個測試圖像所屬的類別標號。本發(fā)明與現有的技術相比具有以下優(yōu)點1、本發(fā)明由于采用有監(jiān)督的維數約簡方法將預處理后的SAR圖像映射到一個具有有效分類特性的低維空間,能提高后續(xù)識別精度;2、本發(fā)明由于采用類內不相似性矩陣和類間不相似性矩陣,考慮了所有樣本點類內和類間的關系,以此避免像核Fisher判據對數據服從高斯分布的要求,能在實際中更加廣泛應用;3、本發(fā)明由于采用分別將訓練樣本和測試樣本投影到基于核標度切的拉普拉斯矩陣特征空間,使得圖像在低維空間的分布更接近在原始空間的分布,而且用較少維數的特征比用KPCA和KDA等經典特征提取方法得到的特征能得到更高的識別率。對比實驗表明,本發(fā)明有效的提高了合成孔徑雷達圖像目標識別的識別精度,且對方位角具有較好的魯棒性。圖1是本發(fā)明的流程圖;圖2是本發(fā)明仿真采用的MSTAR數據庫中俯視角為17°的部分目標圖像;圖3是本發(fā)明仿真采用的MSTAR數據庫中俯視角為15°的部分目標圖像;圖4是在360°方位間隔時采用不同方法的目標識別率比較圖;圖5是在180°方位間隔時采用不同方法的目標識別率比較圖;圖6是在90°方位間隔時采用不同方法的目標識別率比較圖;圖7是在30°方位間隔時采用不同方法的目標識別率比較圖;圖8是在10°方位間隔時采用不同方法的目標識別率比較圖。具體實施例方式參照圖1,本發(fā)明的具體實施步驟包括步驟1,對訓練圖像進行預處理,得到預處理后的訓練樣本集。la)選擇MSTAR數據庫中17°俯視角的圖像作為訓練圖像集,如圖2所示,其中圖2(a),圖2(b),圖2(c),圖2(d)是具有不同方位角的BMP2裝甲車,圖2(e),圖2(f),圖2(g),圖2(h)是具有不同方位角的BTR70裝甲車,圖2(i),圖2(j),圖2(k),圖2⑴是具有不同方位角的T72坦克;lb)從選出的128X128原始圖像中截取中心60X60的子圖像;lc)對所有子圖像分別進行歸一化,常用的歸一化方法有標準差歸一化,2范數歸一化,最大值歸一化和均值歸一化等,本發(fā)明采用標準差歸一化,也就是使得每一幅子圖像均值為0,方差為1;Id)將每一幅歸一化后子圖像的所有像素值按列取出,排成一個行向量,作為這個子圖像的原始特征向量,原始特征向量維數K為3600;Ie)用所有子圖像的原始特征向量組成所有訓練樣本的原始特征矩陣,對原始特征矩陣按列進行中心化處理f=Γ一/,其中f為中心化處理后的特征列向量,f'為原始的特征列向量,/為原始特征列向量f‘的均值,重新排列中心化處理后每一幅子圖像的特征,得到訓練樣本集X={,/,.}:eR^,其中Xi表示第i個訓練樣本行向量,Ii是該樣本所屬的類別標號,N是訓練樣本的個數,R表示實數域。步驟2,對測試圖像進行預處理,得到預處理后的測試樣本集。2a)選擇MSTAR數據庫中15°俯視角的圖像作為測試圖像集,如圖3所示,其中圖3(a),圖3(b),圖3(c),圖3(d)是具有不同方位角的BMP2裝甲車,圖3(e),圖3(f),圖3(g),圖3(h)是具有不同方位角的BTR70裝甲車,圖3(i),圖3(j),圖3(k),圖3⑴是具有不同方位角的T72坦克;2b)從待測試的15°俯視角128X128原始圖像中截取中心60X60的子圖像;2c)對所有子圖像分別進行歸一化,使得其均值為0,方差為12d)將每一幅歸一化后子圖像的所有像素值按列取出,排成一個行向量,作為這個子圖像的原始特征向量,原始特征向量維數K為3600;2e)用所有子圖像的原始特征向量組成所有測試樣本的原始特征矩陣,對原始特征矩陣按列進行中心化處理浐=f",其中產為中心化處理后的特征列向量,f'‘為原始的特征列向量,/f為原始特征列向量f'1的均值,重新排列中心化處理后每一幅子圖像的特征,得到測試樣本集Xi=Ixq^qeRf,其中x/表示第j個測試樣本行向量,M是測試樣本的個數,R表示實數域。步驟3,采用高斯核函數將所有訓練樣本映射到高維特征空間,得到特征空間中的訓練集S=^fsij二,其中Si=[sn,si2,-,Sffl]為第i個訓練樣本Xi在特征空間中的特征f2)—X.—X.向量,=expj一"121[表示第i個訓練樣本和第j個訓練樣本之間的相似度,j=2cr{1,…,N},N是訓練樣本的個數,其中Xi和\分別為第i個訓練樣本和第j個訓練樣本,ο為高斯核參數。步驟4,構造類內不相似性矩陣A。4a)計算每一類的類內不相似性矩陣Ap=ΣΣ——(S"S/)(S/"Sy)唭中Ap表示第ρ類的類內不相似性矩JeVpnpnp陣,Vp表示訓練樣本集的第P個子集,np表示Vp中樣本點數,Si和~分別表示Vp中第i個訓練樣本Xi和第j個訓練樣本\在特征空間中的特征向量;4b)計算整個訓練樣本集的類內不相似性矩陣Α=Σ,其中c表示訓練樣本集一共分為C類。步驟5,構造類間不相似性矩陣C。5a)計算每一類的類間不相似性矩陣€ρ=~(s·—sy)(si“sZ),其中Cp表示第ρ類的類間不相似性^ypMypnPnCU)矩陣,Vp表示訓練樣本集的第P個子集,5表示Vp的補集,Si表示Vp中第i個訓練樣本Xi在特征空間中的特征向量,$表示&中第j個訓練樣本~在特征空間中的特征向量,np表示Vp中樣本點數,nc(J)表示采用高斯核函數映射后的特征空間中的訓練樣本所在類的樣本數;C5b)計算整個訓練樣本集的類間不相似性矩陣C=,其中c表示訓練樣本p~l集一共分為c類。步驟6,用A和C構造基于核標度切的拉普拉斯矩陣L=(Α+Ο—。步驟7,對L進行特征分解,從大到小依次取前k個特征值IvJi=所對應的特征向量IwJi=Λ作為投影矩陣W=Iw1,…,%},其中Vi為前k個特征值中第i個特征值,Wi為第i個特征值Vi相應的特征向量。步驟8,采用高斯核函數將所有的測試樣本映射到高維特征空間,得到特征空間中‘(t\M的測試集S={s;.},其中=,/2,…,S'.N]為第j個測試樣本Xjt在特征空間中的特LX'-X.2f2征向量,<7=exp彳^J2‘卜第j個測試樣本和第i個訓練樣本之間的相似度,i2σ={1,…,Ν},Ν和M分別是訓練樣本個數和測試樣本個數,其中χ/和Xi分別為第j個測試樣本和第i個訓練樣本,ο為高斯核參數;步驟9,分別將訓練樣本和測試樣本投影到由投影矩陣W所張成的空間,得到投影后新的訓練樣本集和新的測試樣本集。9a)將所有訓練樣本投影到由投影矩陣W所張成的空間,得到新的訓練樣本集Y=IyJ^1GRk,其中Ii為第個訓練樣本新的特征向量,計算公式為yi=<Si·W>,其中Si為訓練樣本集第i個訓練樣本在特征空間中的特征向量;9b)將所有測試樣本投影到由投影矩陣W所張成的空間,得到新的測試樣本集<formula>formulaseeoriginaldocumentpage9</formula>,其中y/為第j個測試樣本新的特征向量,計算公式為<formula>formulaseeoriginaldocumentpage9</formula>其中s/為訓練樣本集第j個測試樣本在特征空間中的特征向量。步驟10,將新的訓練樣本集Y和新的測試樣本集Yt輸入到支撐矢量機,得到測試圖像的識別結果{/ΙρΛ其中i/表示第j個測試圖像所屬的類別標號。本發(fā)明的效果可以通過以下仿真實驗進一步說明1.仿真內容仿真內容主要包括本發(fā)明與現有幾種方法在不同方位間隔分組內的目標識別率比較實驗,其中本發(fā)明與現有幾種方法在不同方位間隔分組內的目標識別率比較實驗包括五組①本發(fā)明與現有幾種方法在360°方位間隔分組內的目標識別率比較實驗;②本發(fā)明與現有幾種方法在180°方位間隔分組內的目標識別率比較實驗;③本發(fā)明與現有幾種方法在90°方位間隔分組內的目標識別率比較實驗;④本發(fā)明與現有幾種方法在30°方位間隔分組內的目標識別率比較實驗;⑤本發(fā)明與現有幾種方法在10°方位間隔分組內的目標識別率比較實驗。上述提到的現有幾種方法包括基于所有像素灰度值結合支撐矢量機Pixel+SVM,核主分量分析結合支撐矢量機KPCA+SVM和核Fisher判別分析結合支撐矢量機KDA+SVM這三種方法;本發(fā)明的基于核標度切維數約簡結合SVM的目標識別方法縮寫為KGC+SVM。2.仿真實驗設置2a)本發(fā)明與現有三種方法在不同方位間隔分組內的目標識別率比較實驗,分別如圖4、圖5、圖6、圖7和圖8所示。參照圖4,它是360°方位間隔分組時各方法的性能比較圖。本實驗是將MSTAR數據庫中所有圖像在0°360°方位范圍內,按方位間隔360°分成一組,在這一組上進行實驗。圖4中橫坐標是提取的特征個數,縱坐標是正確識別率。360°方位范圍內各識別方法KGC+SVM、KDA+SVM、KPCA+SVM和Pixel+SVM中的分類器SVM核參數γ分別設置為212、1、10_9和2_",懲罰因子C一律設置為10000。方法KGC使用高斯徑向基作為核函數,核參數為ΙΟ"6;KDA使用高斯徑向基作為核函數,核參數為1;KPCA使用二次多項式核作為核函數。參照圖5,它是180°方位間隔分組時各方法的性能比較圖。本實驗是將MSTAR數據庫中所有圖像在0°360°方位范圍內,按方位間隔180°分成2組,分別在這2組上進行實驗,將2組得到的實驗結果做平均。橫坐標是提取的特征個數,縱坐標是識別正確率。180°方位范圍內各識別方法KGC+SVM、KDA+SVM、KPCA+SVM和Pixel+SVM中的分類器核參數Y分別設置為212、1、10_9和2—11,懲罰因子C一律設置為10000。方法KGC使用高斯徑向基作為核函數,核參數為10_6;KDA使用高斯徑向基作為核函數,核參數為1;KPCA使用二次多項式核作為核函數。參照圖6,它是90°方位間隔分組時各方法的性能比較圖。本實驗是將MSTAR數據庫中所有圖像在0°360°方位范圍內,按方位間隔90°分成4組,分別在這4組上進行實驗,將4組得到的實驗結果做平均。橫坐標是提取的特征個數,縱坐標是識別正確率。90°方位范圍內各識別方法KGC+SVM、KDA+SVM、KPCA+SVM和Pixel+SVM中的分類器SVM核參數Y分別設置為212、1、10_1(1和2_17,懲罰因子C一律設置為10000。方法KGC使用高斯徑向基作為核函數,核參數為10_6;KDA使用高斯徑向基作為核函數,核參數為1;KPCA使用二次多項式核作為核函數。參照圖7,它是30°方位間隔分組時各方法的性能比較圖。本實驗是將MSTAR數據庫中所有圖像在0°360°方位范圍內,按方位間隔30°分成12組,分別在這12組上進行實驗,將12組得到的實驗結果做平均。橫坐標是提取的特征個數,縱坐標是識別正確率。30°方位范圍內各識別方法KGC+SVM、KDA+SVM、KPCA+SVM和Pixel+SVM中的分類器核參數Y分別設置為2"、1、10_1(1和2_17,懲罰因子C一律設置為10000。方法KGC使用高斯徑向基作為核函數,核參數為10_6;KDA使用高斯徑向基作為核函數,核參數為1;KPCA使用二次多項式核作為核函數。參照圖8,它是10°方位間隔分組時各方法的性能比較圖。本實驗是將MSTAR數據庫中所有圖像在0°360°方位范圍內,按方位間隔10°分成36組,分別在這36組上進行實驗,將36組得到的實驗結果做平均。橫坐標是提取的特征個數,縱坐標是識別正確率。10°方位范圍內各識別方法KGC+SVM、KDA+SVM、KPCA+SVM和Pixel+SVM中的分類器核參數Y分別設置為21(1、1、10_1(1和2_17,懲罰因子C一律設置為10000。方法KGC使用高斯徑向基作為核函數,核參數為10_6;KDA使用高斯徑向基作為核函數,核參數為1;KPCA使用二次多項式核作為核函數。3.仿真實驗結果分析圖4中Pixel+SVM是基于所有像素的識別結果,KDA+SVM是基于核Fisher判別分析結合支撐矢量機的識別結果,維數為2。圖4中曲線KPCA+SVM是現有基于核主分量分析特征提取方法結合支撐矢量機的識別結果,從該曲線可以看出在15維左右達到穩(wěn)定,之后加進更多的特征,識別率并沒有提高太多;在曲線KGC+SVM是基于核標度切維數約簡的基礎上結合支撐矢量機的結果,從該曲線可以看出在8維左右就達到一個比較高的識別率,在10維達到穩(wěn)定;在360°方位間隔分組時各方法KGC+SVM和KPCA+SVM在特征數量分別取5、10、15和20所對應的正確識別率,及KDA+SVM和Pixel+SVM的正確識別率,如表1所表1方位間隔為360°時不同方法在特定幾個維數上的正確識別率(%)特征數量SVMKDAKPCA+SVMKGC+SVM—<table>tableseeoriginaldocumentpage10</column></row><table>從圖5可以看到,KGC+SVM在180°方位間隔分組內識別率比KDA+SVM、KPCA+SVM以及SVM要高,對方位角具有更好的魯棒性,而且能在特征數量為10的時候達到一個比較好的識別率。方法KGC+SVM和KPCA+SVM在特征數量分別取5、10、15和20所對應的正確識別率,及KDA+SVM和Pixel+SVM的正確識別率,如表2所示。表2方位間隔為180°時不同方法在特定幾個維數上的正確識別率(%)<table>tableseeoriginaldocumentpage11</column></row><table>從圖6可以看到,KGC+SVM在90°方位間隔分組內識別率比KDA+SVM、KPCA+SVM以及SVM要高,對方位角具有更好的魯棒性,而且能在特征數量為10的時候達到一個比較好的識別率。各方法KGC+SVM和KPCA+SVM在特征數量分別取5、10、15和20所對應的正確識別率,及KDA+SVM和Pixel+SVM的正確識別率,如表3所示。表3方位間隔為90°時不同方法在特定幾個維數上的正確識別率(%)<table>tableseeoriginaldocumentpage11</column></row><table>從圖7可以看到,KGC+SVM在30°方位間隔分組內識別率比KDA+SVM、KPCA+SVM以及SVM要高,對方位角具有更好的魯棒性,而且能在特征數量為10的時候達到一個比較好的識別率。各方法KGC+SVM和KPCA+SVM在特征數量分別取5、10、15和20所對應的正確識別率,及KDA+SVM和Pixel+SVM的正確識別率,如表4所示。表4方位間隔為30°時不同方法在特定幾個維數上的正確識別率(%)<table>tableseeoriginaldocumentpage11</column></row><table>從圖8可以看到,KGC+SVM在10°方位間隔分組內識別率比KPCA+SVM以及SVM要高,對方位角具有更好的魯棒性,而且能在特征數量為10的時候達到一個比較好的識別率。KGC+SVM在10°方位間隔分組時的識別率較KDA+SVM略低,主要是因為將MSTAR數據庫中所有圖像在0°360°方位范圍內,按方位間隔10°分成36組,每組圖像樣本較少,而KGC主要體現樣本之間的關系,以此得到的類間不相似性和類內不相似性關系減少,特別是類內的關系大大減小,造成識別率較低。但總體來說,KGC方法在識別率與魯棒性方面都比用KPCA和KDA等經典特征提取方法要好。各方法KGC+SVM和KPCA+SVM在特征數量分別取5、10、15和20所對應的正確識別率,及KDA+SVM和Pixel+SVM的正確識別率,如表5所示。表5方位間隔為10°時不同方法在特定幾個維數上的正確識別率(%)<table>tableseeoriginaldocumentpage11</column></row><table>綜上,本發(fā)明在基于核標度切維數約簡的基礎上結合支撐矢量機的SAR目標識別方法達到了較高的識別率,與現有的方法相比較,在提取的特征數量和識別率上都具有一定的優(yōu)勢,而且對方位角具有較好的魯棒性,降低了對目標方位信息估計的精度要求.權利要求一種基于核標度切維數約簡的合成孔徑雷達圖像目標識別方法,包括如下步驟(1)分別對選定的已知類別信息的圖像和輸入的所有待測試圖像進行預處理,得到預處理后的訓練樣本集<mrow><mi>X</mi><mo>=</mo><msubsup><mrow><mo>{</mo><msub><mi>x</mi><mi>i</mi></msub><mo>,</mo><msub><mi>l</mi><mi>i</mi></msub><mo>}</mo></mrow><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></msubsup><msup><mrow><mo>∈</mo><mi>R</mi></mrow><mi>K</mi></msup></mrow>和測試樣本集<mrow><msup><mi>X</mi><mi>t</mi></msup><mo>=</mo><msubsup><mrow><mo>{</mo><msubsup><mi>x</mi><mi>j</mi><mi>t</mi></msubsup><mo>}</mo></mrow><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>M</mi></msubsup><mo>∈</mo><msup><mi>R</mi><mi>K</mi></msup><mo>,</mo></mrow>其中xi和xjt分別表示第i個訓練樣本和第j個測試樣本行向量,li是第i個訓練樣本所屬的類別標號,N和M分別是訓練樣本個數和測試樣本個數,K是所有樣本原始特征維數,R表示實數域;(2)采用高斯核函數將所有的訓練樣本映射到高維特征空間,得到特征空間中的訓練集<mrow><mi>S</mi><mo>=</mo><msubsup><mrow><mo>{</mo><msub><mi>s</mi><mi>i</mi></msub><mo>}</mo></mrow><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></msubsup><mo>,</mo></mrow>其中si表示第i個訓練樣本xi在特征空間的特征向量;(3)將S作為輸入,構造類內不相似性矩陣<mrow><mi>A</mi><mo>=</mo><munderover><mi>Σ</mi><mrow><mi>p</mi><mo>=</mo><mn>1</mn></mrow><mi>c</mi></munderover><msub><mi>A</mi><mi>p</mi></msub></mrow>和類間不相似性矩陣<mrow><mi>C</mi><mo>=</mo><munderover><mi>Σ</mi><mrow><mi>p</mi><mo>=</mo><mn>1</mn></mrow><mi>c</mi></munderover><msub><mi>C</mi><mi>p</mi></msub><mo>,</mo></mrow>其中<mrow><msub><mi>A</mi><mi>p</mi></msub><mo>=</mo><munder><mi>Σ</mi><mrow><mi>i</mi><msub><mrow><mo>∈</mo><mi>V</mi></mrow><mi>p</mi></msub></mrow></munder><munder><mi>Σ</mi><mrow><mi>j</mi><mo>∈</mo><msub><mi>V</mi><mi>p</mi></msub></mrow></munder><mfrac><mn>1</mn><mrow><msub><mi>n</mi><mi>p</mi></msub><msub><mi>n</mi><mi>p</mi></msub></mrow></mfrac><mrow><mo>(</mo><msub><mi>s</mi><mi>i</mi></msub><mo>-</mo><msub><mi>s</mi><mi>j</mi></msub><mo>)</mo></mrow><msup><mrow><mo>(</mo><msub><mi>s</mi><mi>i</mi></msub><mo>-</mo><msub><mi>s</mi><mi>j</mi></msub><mo>)</mo></mrow><mi>T</mi></msup></mrow><mrow><msub><mi>C</mi><mi>p</mi></msub><mo>=</mo><munder><mi>Σ</mi><mrow><mi>i</mi><msub><mrow><mo>∈</mo><mi>V</mi></mrow><mi>p</mi></msub></mrow></munder><munder><mi>Σ</mi><mrow><mi>j</mi><mo>∈</mo><msub><mover><mi>V</mi><mo>-</mo></mover><mi>p</mi></msub></mrow></munder><mfrac><mn>1</mn><mrow><msub><mi>n</mi><mi>p</mi></msub><msub><mi>n</mi><mrow><mi>c</mi><mrow><mo>(</mo><mi>j</mi><mo>)</mo></mrow></mrow></msub></mrow></mfrac><mrow><mo>(</mo><msub><mi>s</mi><mi>i</mi></msub><mo>-</mo><msub><mover><mi>s</mi><mo>-</mo></mover><mi>j</mi></msub><mo>)</mo></mrow><msup><mrow><mo>(</mo><msub><mi>s</mi><mi>i</mi></msub><mo>-</mo><mover><msub><mi>s</mi><mi>j</mi></msub><mo>-</mo></mover><mo>)</mo></mrow><mi>T</mi></msup></mrow>Vp表示訓練樣本集的第p個子集,表示Vp的補集,np表示Vp中樣本點數,si、sj分別表示Vp中第i個訓練樣本xi和第j個訓練樣本xj在特征空間中的特征向量,表示中第j個樣本點xj在特征空間中的特征向量,nc(j)表示采用高斯核函數映射后的特征空間中的訓練樣本所在類的樣本數,其中c表示訓練樣本集一共分為c類,T表示轉置;(4)用類內不相似性矩陣A和類間不相似性矩陣C構造基于核標度切的拉普拉斯矩陣L=(A+C)-1C;(5)對基于核標度切的拉普拉斯矩陣L進行特征分解,從大到小依次取前k個特征值所對應的特征向量構成相應的投影矩陣W={w1,…,wk},其中k為需要的特征維數;(6)采用高斯核函數將所有的測試樣本映射到高維特征空間,得到特征空間中的測試集<mrow><mi>S</mi><mo>=</mo><msubsup><mrow><mo>{</mo><msubsup><mi>s</mi><mi>j</mi><mi>t</mi></msubsup><mo>}</mo></mrow><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>M</mi></msubsup><mo>,</mo></mrow>其中<mrow><msubsup><mi>s</mi><mi>j</mi><mi>t</mi></msubsup><mo>=</mo><mo>[</mo><msubsup><mi>s</mi><mrow><mi>j</mi><mn>1</mn></mrow><mi>t</mi></msubsup><mo>,</mo><msubsup><mi>s</mi><mrow><mi>j</mi><mn>2</mn></mrow><mi>t</mi></msubsup><mo>,</mo><mo>·</mo><mo>·</mo><mo>·</mo><mo>,</mo><msubsup><mi>s</mi><mi>jN</mi><mi>t</mi></msubsup><mo>]</mo></mrow>為第j個測試樣本xjt在特征空間中的特征向量,<mrow><msubsup><mi>s</mi><mi>ji</mi><mi>t</mi></msubsup><mo>=</mo><mi>exp</mi><mo>{</mo><mfrac><mrow><mo>-</mo><msup><mrow><mo>|</mo><mo>|</mo><msubsup><mi>x</mi><mi>j</mi><mi>t</mi></msubsup><mo>-</mo><msub><mi>x</mi><mi>i</mi></msub><mo>|</mo><mo>|</mo></mrow><mn>2</mn></msup></mrow><msup><mrow><mn>2</mn><mi>σ</mi></mrow><mn>2</mn></msup></mfrac><mo>}</mo></mrow>為第j個測試樣本和第i個訓練樣本之間的相似度,i={1,…,N},N和M分別是訓練樣本個數和測試樣本個數,其中xjt和xi分別為第j個測試樣本和第i個訓練樣本,σ為高斯核參數;(7)分別將訓練樣本集和測試樣本集投影到投影矩陣W所張成的空間,得到投影后新的訓練樣本集<mrow><mi>Y</mi><mo>=</mo><msubsup><mrow><mo>{</mo><msub><mi>y</mi><mi>i</mi></msub><mo>}</mo></mrow><mrow><mi>i</mi><mo>=</mo><mn>1</mn></mrow><mi>N</mi></msubsup><mo>∈</mo><msup><mi>R</mi><mi>k</mi></msup></mrow>和新的測試樣本集<mrow><msup><mi>Y</mi><mi>t</mi></msup><mo>=</mo><msubsup><mrow><mo>{</mo><msubsup><mi>y</mi><mi>j</mi><mi>t</mi></msubsup><mo>}</mo></mrow><mrow><mi>j</mi><mo>=</mo><mn>1</mn></mrow><mi>M</mi></msubsup><mo>∈</mo><msup><mi>R</mi><mi>k</mi></msup><mo>,</mo></mrow>其中yi=<si·W>為第i個訓練樣本新的特征向量,si為訓練樣本集第i個訓練樣本在特征空間中的特征向量,yjt=<sjt·W>為第j個測試樣本新的特征向量,sjt為測試樣本集第j個測試樣本在特征空間中的特征向量;(8)將新的訓練樣本集Y和新的測試樣本集Yt輸入到支撐矢量機,得到測試圖像的識別結果其中l(wèi)jt表示第j個測試圖像所屬的類別標號。F2010100135744C00018.tif,F2010100135744C00019.tif,F2010100135744C000110.tif,F2010100135744C000111.tif,F2010100135744C00026.tif2.根據權利要求1所述的SAR目標識別方法,其中步驟(1)所述的對選定的已知類別信息的圖像進行預處理,按如下過程進行(2a)從選定的128X128已知類別信息的原始圖像中截取中心60X60的子圖像;(2b)對所有子圖像分別進行歸一化,使其均值為0,方差為1;(2c)將每一幅歸一化后子圖像的所有像素值按列取出,排成一個行向量,作為這個子圖像的原始特征向量;(2d)用所有子圖像的原始特征向量組成所有訓練樣本的原始特征矩陣,再按列進行中心化處理,使得每列特征向量的均值為0,得到訓練樣本集。3.根據權利要求1所述的SAR目標識別方法,其中步驟(1)所述的對輸入的所有待測試圖像進行預處理,按如下過程進行(3a)從輸入的128X128的待測試圖像中截取中心60X60大小的子圖像;(3b)對所有子圖像分別進行歸一化,使得其均值為0,方差為1;(3c)將每一幅歸一化后子圖像的所有像素值按列取出,排成一個行向量,作為這個子圖像的原始特征向量;(3d)用所有子圖像的原始特征向量組成所有測試樣本的原始特征矩陣,再按列進行中心化處理,使得每列特征向量的均值為0,得到測試樣本集。全文摘要本發(fā)明公開了一種基于核標度切維數約簡的合成孔徑雷達圖像目標識別方法,主要解決現有方法對SAR圖像目標識別率低的問題。其步驟包括對選定的已知類別信息的圖像和待測試圖像進行預處理,得到訓練集和測試集;用高斯核函數將訓練集映射到高維空間,用映射后的高維特征作為輸入分別構造類內和類間不相似性矩陣,得到基于核標度切的拉普拉斯矩陣;對該矩陣進行特征分解得到最優(yōu)的投影矩陣;分別將訓練樣本和測試樣本投影到投影矩陣向量所張成的子空間,得到新的訓練集和測試集;將新的訓練集和測試集輸入支撐矢量機進行分類識別,得到測試圖像的類別信息。本發(fā)明具有識別率高和魯棒性好的優(yōu)點,可用于對SAR圖像的識別。文檔編號G01S7/41GK101807258SQ20101001357公開日2010年8月18日申請日期2010年1月8日優(yōu)先權日2010年1月8日發(fā)明者侯彪,周斯斯,尚榮華,張向榮,李陽陽,焦李成,王爽,緱麗敏,馬文萍申請人:西安電子科技大學