国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      基于圖像處理和卷積神經(jīng)網(wǎng)絡(luò)的鐵路接觸網(wǎng)缺陷檢測方法與流程

      文檔序號:12127569閱讀:522來源:國知局

      本發(fā)明涉及鐵路接觸網(wǎng)檢測領(lǐng)域,具體是指基于圖像處理和卷積神經(jīng)網(wǎng)絡(luò)的鐵路接觸網(wǎng)缺陷檢測方法。



      背景技術(shù):

      隨著高速鐵路運輸技術(shù)的進(jìn)一步發(fā)展及其廣泛應(yīng)用,高鐵接觸網(wǎng)作為向機車提供電能的重要設(shè)施,其是否處于安全工作狀態(tài)也越來越受到關(guān)注。為了保證接觸網(wǎng)處于良好工作狀態(tài),以利于電氣化鐵道的安全運營,需要盡快發(fā)現(xiàn)并處理接觸網(wǎng)中出現(xiàn)的故障。實際中,高鐵接觸網(wǎng)故障主要由零部件的松、脫、缺、裂等造成。接觸網(wǎng)各個器件對供電安全有至關(guān)重要的作用,其缺陷識別與故障排查就成為鐵路運營重要一環(huán)。

      目前,高鐵接觸網(wǎng)的檢測主要靠人工夜間爬桿作業(yè)進(jìn)行檢查。這種方法不但對于作業(yè)人員有較高的要求,且不夠安全可靠,檢查速度慢,效率低。也有輔助設(shè)備在夜間進(jìn)行圖像自動拍攝,并采用人工對圖像進(jìn)行逐一分析,此種方法的問題在于,圖像數(shù)據(jù)是海量數(shù)據(jù),視場較寬,對每一器件逐一分析,耗時長,效率低。



      技術(shù)實現(xiàn)要素:

      本發(fā)明提供了基于圖像處理和卷積神經(jīng)網(wǎng)絡(luò)的鐵路接觸網(wǎng)缺陷檢測方法,該方法安全可靠,人力成本少,檢測速度快,檢測效率高,誤報率低,漏報率低,運行成本低,不會出現(xiàn)夜間作業(yè)疲勞嗜睡現(xiàn)象。

      本發(fā)明通過下述技術(shù)方案實現(xiàn):

      基于圖像處理和卷積神經(jīng)網(wǎng)絡(luò)的鐵路接觸網(wǎng)缺陷檢測方法,所述方法步驟如下:

      步驟一:輸入多張有缺陷的樣本圖像和多張無缺陷的樣本圖像,并對樣本圖像對比度進(jìn)行拉伸增強;

      步驟二:選擇樣本圖像中檢測部件附近的大器件作為匹配特征;

      步驟三:在無缺陷的樣本圖像中選擇一張作為標(biāo)準(zhǔn)圖像,標(biāo)準(zhǔn)圖像的判斷方法為:該圖像的匹配特征和檢測部件在該標(biāo)準(zhǔn)圖像中清晰可見;

      步驟四:將標(biāo)準(zhǔn)圖像以外的樣本圖像的匹配特征與標(biāo)準(zhǔn)圖像的匹配特征進(jìn)行對比匹配,實現(xiàn)樣本圖像的粗定位,并得到相應(yīng)的中心行列坐標(biāo)、旋轉(zhuǎn)角度、縮放系數(shù)和匹配分?jǐn)?shù);

      步驟五:根據(jù)步驟四得到的數(shù)值,對匹配成功的樣本圖像,進(jìn)行旋轉(zhuǎn)縮放處理和歸一化處理,處理完成后,裁剪得到檢測部件的圖像;

      步驟六:對步驟五中得到的檢測部件圖像采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類訓(xùn)練,通過不斷校正并保存網(wǎng)絡(luò)結(jié)構(gòu)和模型參數(shù),最終構(gòu)建好相應(yīng)的網(wǎng)絡(luò)結(jié)構(gòu)和模型參數(shù),并確定好相應(yīng)的缺陷設(shè)定分?jǐn)?shù);

      步驟七:拍攝實際圖像,使用線性變換對實際圖像對比度進(jìn)行拉伸增強,將實際圖像的匹配特征與標(biāo)準(zhǔn)圖像的匹配特征進(jìn)行對比匹配,實現(xiàn)實際圖像的粗定位,并得到相應(yīng)的中心行列坐標(biāo)、旋轉(zhuǎn)角度、縮放系數(shù)和匹配分?jǐn)?shù),根據(jù)該數(shù)值,對匹配成功的實際圖像進(jìn)行旋轉(zhuǎn)縮放處理和歸一化處理,處理完成后,裁剪得到實際圖像的待檢測部件圖像;

      步驟八:利用步驟六中構(gòu)建的網(wǎng)絡(luò)結(jié)構(gòu)和模型參數(shù),將步驟七中實際圖像的待檢測部件圖像帶入其中,對卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行向前運算,得到相應(yīng)分?jǐn)?shù),如果該缺陷分?jǐn)?shù)大于缺陷設(shè)定分?jǐn)?shù),則認(rèn)為有缺陷,如果該缺陷小于或等于缺陷設(shè)定分?jǐn)?shù),則認(rèn)為無缺陷。

      該方法安全可靠,人力成本少,檢測速度快,檢測效率高,誤報率低,漏報率低,運行成本低,不會出現(xiàn)夜間作業(yè)疲勞嗜睡現(xiàn)象。

      進(jìn)一步的,所述步驟四和步驟七中的匹配過程包括離線階段和在線階段,離線階段使用canny濾波器處理標(biāo)準(zhǔn)圖像匹配特征,并計算出區(qū)域內(nèi)邊緣點的方向向量;在線階段使用金字塔分層搜索策略,首先在圖像金字塔最頂層遍歷搜索進(jìn)行相似性度量匹配,設(shè)目標(biāo)模板像素點為pi=(ri,ci)T,相應(yīng)的方向向量為di=(ti,ui)T,i=1,2,…,n,方向向量通過Canny濾波后計算得到,搜索圖像也使用Canny濾波后計算出每個點(r,c)的方向向量er,c=(vr,c,wr,c)T,將模板進(jìn)行仿射變換,并將仿射變化的平移部分分離,變換后的模板點為p′i=Api,相應(yīng)的方向向量為d′i=Adi,A為二階標(biāo)準(zhǔn)旋轉(zhuǎn)矩陣。在搜索圖像某個特定點q=(r,c)T處,模板與搜索圖像進(jìn)行匹配,計算變換后模板中所有點的歸一化方向向量和搜索圖像相應(yīng)處的歸一化方向向量的點積的總和,并以此作為匹配分值,即變換后的模板在q點的相似度量,相似度量的計算公式為:

      并返回潛在匹配點中心行列坐標(biāo)(ModelRow,ModelColumn)、匹配分值ModelScore、縮放系數(shù)ModelScale和旋轉(zhuǎn)角度ModelAngle。

      其中,匹配分?jǐn)?shù)閾值ThresholdScore=smin=0.5。

      根據(jù)模板圖像采用變換矩陣的方式將所述支持定位裝置圖像進(jìn)行空間域變換;變換矩陣HomMat2DGlobal為:

      HomMat2DGlobal=HomMat2DScale*HomMat2DRotat

      其中,HomMat2DScale表示縮放變換矩陣,HomMat2DRotate表示旋轉(zhuǎn)變換矩陣;

      縮放變換矩陣HomMat2DScale為:

      其中,ModelScale表示支持定位裝置圖像相對于模板圖像的縮放系數(shù);

      旋轉(zhuǎn)變換矩陣HomMat2DRotate為:

      其中,phi表示待匹配圖像歸一化時,支持定位裝置圖像相對于模板圖像的旋轉(zhuǎn)角度,即phi=ModelAngle。

      進(jìn)一步的,所述步驟五和步驟七中裁剪的具體方法為:以待檢測部件中心為中心,左右各延伸多個像素,上下各延伸多個像素,得到待檢測部件圖像。該像素個數(shù)根據(jù)待檢測部件的大小確定,待檢測部件越大,相數(shù)個數(shù)越多。

      進(jìn)一步的,所述步驟一和步驟七中拉伸增強的方式為線性變換。具體實現(xiàn)為:

      g’=g×Mult+Add

      Mult=255/(GMax-GMin)

      Add=Mult×GMin

      其中,g為增強處理前圖像中像素點的灰度值,g′為增強處理后結(jié)果圖像灰度值;Mult為線性變換系數(shù),Add為線性變換增量,GMax和GMin分別表示增強處理前圖像中的最大灰度值和最小灰度值。

      進(jìn)一步的,所述卷積神經(jīng)網(wǎng)絡(luò)采用Googlenet模型、Alexnet模型、VGGnet模型或lenet模型。以其能實現(xiàn)判斷較準(zhǔn)確為選擇依據(jù)。

      進(jìn)一步的,所述步驟七中拍攝實際圖像采用非接觸相機成像。可以將相機裝在用于檢測的火車上進(jìn)行拍攝,也可以采用其他方法進(jìn)行拍攝,以成像清晰,拍攝速度快,節(jié)約成本為標(biāo)準(zhǔn)進(jìn)行選擇。

      本發(fā)明與現(xiàn)有技術(shù)相比,具有的有益效果為:

      (1)本發(fā)明安全可靠,人力成本少,檢測速度快,檢測效率高,誤報率低,漏報率低,運行成本低,不會出現(xiàn)夜間作業(yè)疲勞嗜睡現(xiàn)象。

      (2)本發(fā)明圖像處理過程可使用計算機處理,智能化程度高。

      具體實施方式

      下面結(jié)合實施例對本發(fā)明作進(jìn)一步地詳細(xì)說明,但本發(fā)明的實施方式不限于此。

      實施例1:

      基于圖像處理和卷積神經(jīng)網(wǎng)絡(luò)的鐵路接觸網(wǎng)缺陷檢測方法,所述方法步驟如下:

      步驟一:輸入多張有缺陷的樣本圖像和多張無缺陷的樣本圖像,并對樣本圖像對比度進(jìn)行拉伸增強;

      步驟二:選擇樣本圖像中檢測部件附近的大器件作為匹配特征;

      步驟三:在無缺陷的樣本圖像中選擇一張作為標(biāo)準(zhǔn)圖像,標(biāo)準(zhǔn)圖像的判斷方法為:該圖像的匹配特征和檢測部件在該標(biāo)準(zhǔn)圖像中清晰可見;

      步驟四:將標(biāo)準(zhǔn)圖像以外的樣本圖像的匹配特征與標(biāo)準(zhǔn)圖像的匹配特征進(jìn)行對比匹配,實現(xiàn)樣本圖像的粗定位,并得到相應(yīng)的中心行列坐標(biāo)、旋轉(zhuǎn)角度、縮放系數(shù)和匹配分?jǐn)?shù);

      步驟五:根據(jù)步驟四得到的數(shù)值,對匹配成功的樣本圖像,進(jìn)行旋轉(zhuǎn)縮放處理和歸一化處理,處理完成后,裁剪得到檢測部件的圖像;

      步驟六:對步驟五中得到的檢測部件圖像采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分類訓(xùn)練,通過不斷校正并保存網(wǎng)絡(luò)結(jié)構(gòu)和模型參數(shù),最終構(gòu)建好相應(yīng)的網(wǎng)絡(luò)結(jié)構(gòu)和模型參數(shù),并確定好相應(yīng)的缺陷設(shè)定分?jǐn)?shù);

      步驟七:拍攝實際圖像,使用線性變換對實際圖像對比度進(jìn)行拉伸增強,將實際圖像的匹配特征與標(biāo)準(zhǔn)圖像的匹配特征進(jìn)行對比匹配,實現(xiàn)實際圖像的粗定位,并得到相應(yīng)的中心行列坐標(biāo)、旋轉(zhuǎn)角度、縮放系數(shù)和匹配分?jǐn)?shù),根據(jù)該數(shù)值,對匹配成功的實際圖像進(jìn)行旋轉(zhuǎn)縮放處理和歸一化處理,處理完成后,裁剪得到實際圖像的待檢測部件圖像;

      步驟八:利用步驟六中構(gòu)建的網(wǎng)絡(luò)結(jié)構(gòu)和模型參數(shù),將步驟七中實際圖像的待檢測部件圖像帶入其中,對卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行向前運算,得到相應(yīng)分?jǐn)?shù),如果該缺陷分?jǐn)?shù)大于缺陷設(shè)定分?jǐn)?shù),則認(rèn)為有缺陷,如果該缺陷小于或等于缺陷設(shè)定分?jǐn)?shù),則認(rèn)為無缺陷。

      該方法安全可靠,人力成本少,檢測速度快,檢測效率高,誤報率低,漏報率低,運行成本低,不會出現(xiàn)夜間作業(yè)疲勞嗜睡現(xiàn)象。

      實施例2:

      本實施例在實施例1的基礎(chǔ)上做進(jìn)一步改進(jìn),所述步驟四和步驟七中的匹配過程包括離線階段和在線階段,離線階段使用canny濾波器處理標(biāo)準(zhǔn)圖像匹配特征,并計算出區(qū)域內(nèi)邊緣點的方向向量;在線階段使用金字塔分層搜索策略,首先在圖像金字塔最頂層遍歷搜索進(jìn)行相似性度量匹配,設(shè)目標(biāo)模板像素點為pi=(ri,ci)T,相應(yīng)的方向向量為di=(ti,ui)T,i=1,2,…,n,方向向量通過Canny濾波后計算得到,搜索圖像也使用Canny濾波后計算出每個點(r,c)的方向向量er,c=(vr,c,wr,c)T,將模板進(jìn)行仿射變換,并將仿射變化的平移部分分離,變換后的模板點為p′i=Api,相應(yīng)的方向向量為d′i=Adi,A為二階標(biāo)準(zhǔn)旋轉(zhuǎn)矩陣。在搜索圖像某個特定點q=(r,c)T處,模板與搜索圖像進(jìn)行匹配,計算變換后模板中所有點的歸一化方向向量和搜索圖像相應(yīng)處的歸一化方向向量的點積的總和,并以此作為匹配分值,即變換后的模板在q點的相似度量,相似度量的計算公式為:

      并返回潛在匹配點中心行列坐標(biāo)(ModelRow,ModelColumn)、匹配分值ModelScore、縮放系數(shù)ModelScale和旋轉(zhuǎn)角度ModelAngle。

      其中,匹配分?jǐn)?shù)閾值ThresholdScore=smin=0.5。

      根據(jù)模板圖像采用變換矩陣的方式將所述支持定位裝置圖像進(jìn)行空間域變換;變換矩陣HomMat2DGlobal為:

      HomMat2DGlobal=HomMat2DScale*HomMat2DRotat

      其中,HomMat2DScale表示縮放變換矩陣,HomMat2DRotate表示旋轉(zhuǎn)變換矩陣;

      縮放變換矩陣HomMat2DScale為:

      其中,ModelScale表示支持定位裝置圖像相對于模板圖像的縮放系數(shù);

      旋轉(zhuǎn)變換矩陣HomMat2DRotate為:

      其中,phi表示待匹配圖像歸一化時,支持定位裝置圖像相對于模板圖像的旋轉(zhuǎn)角度,即phi=ModelAngle。

      所述步驟五和步驟七中裁剪的具體方法為:以待檢測部件中心為中心,左右各延伸多個像素,上下各延伸多個像素,得到待檢測部件圖像。該像素個數(shù)根據(jù)待檢測部件的大小確定,待檢測部件越大,相數(shù)個數(shù)越多。

      所述步驟一和步驟七中拉伸增強的方式為線性變換。具體實現(xiàn)為:

      g’=g×Mult+Add

      Mult=255/(GMax-GMin)

      Add=Mult×GMin

      其中,g為增強處理前圖像中像素點的灰度值,g′為增強處理后結(jié)果圖像灰度值;Mult為線性變換系數(shù),Add為線性變換增量,GMax和GMin分別表示增強處理前圖像中的最大灰度值和最小灰度值。

      所述卷積神經(jīng)網(wǎng)絡(luò)采用Googlenet模型、Alexnet模型、VGGnet模型或lenet模型。以其能實現(xiàn)判斷較準(zhǔn)確為選擇依據(jù)。

      所述步驟七中拍攝實際圖像采用非接觸相機成像。可以將相機裝在用于檢測的火車上進(jìn)行拍攝,也可以采用其他方法進(jìn)行拍攝,以成像清晰,拍攝速度快,節(jié)約成本為標(biāo)準(zhǔn)進(jìn)行選擇。

      本實施例的其他部分與實施例1相同,不再贅述。

      以上所述,僅是本發(fā)明的較佳實施例,并非對本發(fā)明做任何形式上的限制,凡是依據(jù)本發(fā)明的技術(shù)實質(zhì)對以上實施例所作的任何簡單修改、等同變化,均落入本發(fā)明的保護(hù)范圍之內(nèi)。

      當(dāng)前第1頁1 2 3 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1