本發(fā)明涉及零件識別的
技術(shù)領(lǐng)域:
,特別涉及一種基于視覺注意機制的目標(biāo)零件識別方法。
背景技術(shù):
:通過機器視覺進行零件識別和定位,并引導(dǎo)工業(yè)機器人的機械手抓取和裝配零件是工業(yè)機器人應(yīng)用領(lǐng)域中的關(guān)鍵問題。目前,在各類流水生產(chǎn)線上,工業(yè)機器人執(zhí)行得最多的作業(yè)就是對目標(biāo)零件進行識別、定位、抓取、安裝。但有時由于受到許多客觀因素的影響,目標(biāo)零件的位置和姿態(tài)可能發(fā)生改變,如果工業(yè)機器人還是按照預(yù)先設(shè)定好的程序去識別、定位、抓取、安裝目標(biāo)零件的話,則有可能會發(fā)生許多意想不到的后果。因此,為了提高流水生產(chǎn)線的適應(yīng)能力,需要工業(yè)機器人對抓取和安裝的目標(biāo)零件進行高效的識別和定位,獲取目標(biāo)零件的三維位置和姿態(tài),從而控制工業(yè)機器人的機械手去進行準(zhǔn)確的抓取和安裝。此外,隨著小批量和多品種生產(chǎn)方式的迅速發(fā)展,對于流水生產(chǎn)線上許多不同種類和外形及尺寸的零件而言,僅僅靠人工的方法進行識別和定位根本無法高效和準(zhǔn)確地完成作業(yè)任務(wù),需要采用機器視覺技術(shù)和方法才能夠快速地完成目標(biāo)零件識別,從而使零件裝配作業(yè)具有更好的靈活性、魯棒性、高效率等。機器視覺技術(shù)是20世紀(jì)60年代發(fā)展起來的。1961年美國麻省理工學(xué)院林肯實驗室采用攝像頭作為計算機的輸入,把物體識別和圖像處理方法引入到機器人應(yīng)用中。由此開始了機器視覺研究。作為全球知名的工業(yè)機器人企業(yè),美國的AdeptTechnology公司在研制第一代工業(yè)機器人時就加入了機器視覺技術(shù)。在隨后的研發(fā)過程中,該公司獲得了豐富的機器視覺經(jīng)驗和成熟的機器視覺技術(shù),這促使其成為了美國最大的工業(yè)機器人制造公司。(1)視覺注意機制概述人類通過視覺、聽覺、嗅覺、觸覺來認(rèn)識和感知世界,其中視覺又是人類獲取環(huán)境信息的最重要途徑,所以對這方面的研究一直都是各方關(guān)注的熱點。然而,當(dāng)人們進入一個視覺場景中,撲面而來的視覺信息是海量的(每秒約108~109比特),但是人類視覺系統(tǒng)對信息處理的能力卻是有限的,不能滿足實時處理所有數(shù)據(jù)的需要。這時,靈長目類生物所具備的一項超強實時處理復(fù)雜環(huán)境數(shù)據(jù)的能力引起了人們的注意。這種能力可以在進一步處理視覺信息之前,選擇性地輸入其中的一小部分?jǐn)?shù)據(jù)作為“感興趣”和“有意義”的數(shù)據(jù)進行分析和處理。然后再逐個地切換到不同的關(guān)注焦點,從而實現(xiàn)計算量的極大降低,同時提高了視覺信息處理的效率。靈長目類動物的這種在海量數(shù)據(jù)中快速提取關(guān)鍵數(shù)據(jù)的能力,被稱為視覺選擇性注意機制。如圖2所示是幾個視覺注意的例子,如在圖2(a)中,空心圓圈會首先被注意到;在圖2(b)中,則是首先注意到實心圓圈,而忽略其它的正方形。對視覺注意機制研究最先始于神經(jīng)生物學(xué)和心理學(xué)領(lǐng)域,用于研究一些心理模型和認(rèn)知模型。隨著圖像處理和機器視覺系統(tǒng)的發(fā)展,越來越多的注意機制模型在這些領(lǐng)域內(nèi)產(chǎn)生與發(fā)展。視覺注意機制的幾個應(yīng)用領(lǐng)域為:①目標(biāo)檢測和目標(biāo)識別。面對一個復(fù)雜的視覺場景時,大量其它對象的存在會嚴(yán)重影響對目標(biāo)物體的檢測和識別,其中最主要的影響還是圖像處理的效率。因為大量的計算資源都花費在其它對象的識別上,處理的信息量和計算的復(fù)雜度都相對較大。引入視覺注意機制的作用就是能夠合理分配計算資源,將處理的重心放在那些“疑似”或者“關(guān)注”的對象上。②圖像的壓縮和編碼?,F(xiàn)存一些比較主流的圖像壓縮方法,絕大部分都是將圖像的所有數(shù)據(jù)同等對待,采用同樣的壓縮策略和壓縮比例進行壓縮,這對于每個特定的應(yīng)用場景來說,都不算是一個明智之舉。因為對于人的視覺系統(tǒng)或者計算機的視覺處理來說,每個應(yīng)用場景中都只是需要圖像中的一部分?jǐn)?shù)據(jù)進行處理,比如:行人監(jiān)控主要關(guān)注的是人,其它處于圖片中的信息是可有可無的;車輛監(jiān)測則關(guān)注車,其它的信息沒有太大的意義??偟膩碚f,引入視覺注意機制可以將關(guān)鍵信息提取出來,采取一些高保真的壓縮策略,對于其它次要的信息,則可以采取一些有損壓縮策略。這樣就可以在保證較高數(shù)據(jù)壓縮比的同時,還能保證圖像中的關(guān)鍵信息不被丟失。③圖像檢索和圖像分類?,F(xiàn)今圖像檢索領(lǐng)域主要的研究方向是基于內(nèi)容的檢索方式,如何提取出分辨效率更高的圖像特征來表示對應(yīng)圖像的內(nèi)容就是該領(lǐng)域內(nèi)最急迫要解決的問題。而注意機制可能就是一個有效可行的解決方案,提取出圖像中的關(guān)鍵信息用于表征整個圖像的內(nèi)容,通過對比關(guān)鍵信息獲取圖像之間的相似度。這樣,可以提高圖像檢索和分類的效率。同時,還能夠有效減少或者避免圖像中不相關(guān)內(nèi)容的影響。(1)視覺注意機制理論1)特征整合理論(FeatureIntegratedTheory)。特征整合理論是由英屬哥倫比亞大學(xué)Treisman教授和牛津大學(xué)Gelade教授提出的,之后受到了注意機制領(lǐng)域內(nèi)的廣泛關(guān)注,并在此基礎(chǔ)上形成和發(fā)展了大量視覺注意機制計算模型。對于注意機制的特征整合理論,人們注意到單一整體的對象主要有兩種方式:通過焦點注意或通過從上而下的視覺信息處理。但是處于某個既定的環(huán)境中,無法確定是哪種方式在起作用,或者不知道哪種方式對視覺系統(tǒng)更有用。通常情況下,這兩種方式是協(xié)同工作,只是在一些極端條件下,可以看到這兩個方式會以幾乎完全獨立的方式進行工作。該理論的結(jié)構(gòu)如圖3所示,描述了視覺信息的基本處理流程和關(guān)注區(qū)域的生成的過程。Treisman將基于焦點注意的物體識別方式稱為特征登記階段,即預(yù)注意階段:此時視覺系統(tǒng)對整個圖像區(qū)域并行地以“光點”的方式采集底層特征(包括顏色、方向、尺寸、距離等),對于人類來說,幾乎是意識不到這種完全自動化的處理過程。預(yù)注意階段的處理可以促使人們在視覺場景中進行指有向性的探索。但是,視覺早期階段只能檢測單一獨立的特征,而不能檢測到各個特征之間的關(guān)系,也不能確定特征與位置之間的聯(lián)系。然后對特征采用相應(yīng)模板進行獨立的編碼,生成特征地圖FM(FeatureMap)。如圖3中的顏色、方向、尺寸等。每個多維特征都包含多個特征圖,比如顏色特征則會包含紅、綠、藍(lán)三種特征圖。然后基于特征圖建立反映圖像顯著性的位置圖(MapofLocation),這可以指出關(guān)注物體在圖像中所處的位置,但是無法判別顯著區(qū)域內(nèi)的物體是什么。Treisman將另一種基于自上而下處理物體識別方式稱為特征整合階段,在這個階段開始識別物體。當(dāng)物體發(fā)生遮擋時,就會嚴(yán)重影響焦點注意過程,所以需要通過自上而下的處理才能識別物體。此時,視覺系統(tǒng)逐個掃描位置圖上的顯著區(qū)域,把區(qū)域內(nèi)相關(guān)特征按照既定的方式進行組合,以生成對某一物體的表征。視覺系統(tǒng)在處理位置時,需要集中注意力把原始的、相互獨立的特征整合為一個單一的物體。當(dāng)注意力被分散或者超過人們承受能力時,就會出現(xiàn)將某些刺激特征不恰當(dāng)?shù)亟Y(jié)合,即錯覺性結(jié)合(IllusoryConjunctions),從而造成錯覺現(xiàn)象。特征整合理論的成立基于以下設(shè)定條件:①預(yù)注意階段對圖像中一些簡單和可用的數(shù)據(jù)進行編碼,生成一些特征模塊。這些模塊可能擁有關(guān)于空間位置關(guān)系的信息,但它們不能直接向特征整合階段提供這些標(biāo)志空間位置的數(shù)據(jù)。②在集中性注意產(chǎn)生作用時,就會開始對位置地圖上,處于顯著區(qū)域內(nèi)的特征進行提取和組合。通過注意機制的處理,當(dāng)前被選定域內(nèi)所有特征都會融合到一個臨時的物體表征或者文件中。③視覺系統(tǒng)對物體的識別過程為:先整合各個物體文件中有關(guān)其性質(zhì)和結(jié)構(gòu)關(guān)系的信息,然后形成對應(yīng)的描述信息。最后將此描述與識別網(wǎng)絡(luò)(RecognitionNetwork)中存儲的物體描述進行比較,匹配則表示成功識別物體。特征整合理論存在以下性質(zhì):在一個熟悉場景中,一些可預(yù)測的物體可以通過匹配它們的一些獨立特征來確定,而不需要再去檢查它們在空間中的關(guān)系。這時對目標(biāo)物體的搜索就相對簡單,檢測效率也較高。然而處于一個不太熟悉場景中,或任務(wù)相關(guān)聯(lián)的是一些聯(lián)合特征(ConjunctiveFeatures)時,對目標(biāo)物體搜索的效率就會降低。比如搜索人臉時,當(dāng)此人處于郊外旅游時,可以很快找出;但是當(dāng)他與同伴穿著統(tǒng)一的服裝照集體照時,找到他就需要花費很大的精力,即使此人很熟悉。特征分析與識別網(wǎng)絡(luò)是特征理論中識別目標(biāo)的關(guān)鍵,新的感知過程會在目標(biāo)文件被取代時發(fā)生。2)引導(dǎo)搜索理論(GuidedSearchTheory)。引導(dǎo)搜索理論是哈佛大學(xué)Wolfe教授1994年提出的,該理論描述了視覺注意的神經(jīng)機制,為認(rèn)知神經(jīng)心理學(xué)的發(fā)展提供了理論基礎(chǔ)。引導(dǎo)搜索理論開始是在特征整合理論的基礎(chǔ)上做一些調(diào)整,而后結(jié)合了Neisser將視覺處理分成預(yù)注意階段和注意階段的理論、Hoffman的兩階段模型以及Egeth在特征聯(lián)合方面的研究成果。引導(dǎo)搜索模型的主要目的是用來解釋人們在一個正常、連續(xù)的視覺場景中找出需要的視覺刺激源的能力,它認(rèn)為人類主要是根據(jù)外界物體視覺上刺激的顯著性來選擇注意的對象。它和特征整合理論一樣都認(rèn)為單一特征搜索與聯(lián)合特征搜索都包含兩個階段:并行階段和序列階段,但前者是后者的基礎(chǔ)。其模型架構(gòu)如圖4所示,根據(jù)該模型架構(gòu)可知其工作流程如下:首先,并行化處理整個圖像,讓刺激源通透過寬調(diào)諧的分類通道,生成有限個基本視覺特征組,即特征地圖FM。對于顏色、方向以及尺寸等都可以有相對獨立的特征地圖,在每個特征類型中還可以細(xì)化成多個獨立的特征地圖,這一點和特征整合理論中的特征地圖類似。此外,所有特征都可以集中顯示在一個單獨的多維特征地圖中。在生成特征地圖后,系統(tǒng)就通過計算各個區(qū)域的激活程度來確定顯著程度。對于某個特定區(qū)域,其激活程度越大,就意味著被直接注意的幾率越大。激活程度的計算由兩個部分組成:刺激源自身特征驅(qū)動的bottom-up型激活程度與用戶任務(wù)驅(qū)動的top-down型激活程度。前者用于標(biāo)識某一對象在當(dāng)前場景中的特殊性程度,后者用于提取那些任務(wù)需要的對象,且通常是特殊性較低的對象。對于這兩種類型的激活程度還有兩個計算原則:對于某個沒有相關(guān)的top-down信息特征,則設(shè)置其top-down激活程度的權(quán)重為0;當(dāng)干擾對象的某個屬性與目標(biāo)對象相同時,則降低該特征的bottom-up激活程度權(quán)重。最后,通過對各個區(qū)域計算得到的激活程度進行加權(quán)求和操作,從而生成激活地圖AM(ActivationMap),視覺系統(tǒng)就按順序分配有限容量的處理資源。并且可以將每個特征模型當(dāng)成是一些地形圖,其中的山峰就是那些激活程度較高的區(qū)域,而注意力則集中在這些山峰上。但是,山峰所標(biāo)識的高激活程度并不表示其擁有任何標(biāo)識對象的信息,其主要作用只是用于引導(dǎo)注意力,在沒有任何內(nèi)在命令時,就會首先注意最高激活程度的區(qū)域。在視覺搜索任務(wù)中,若在當(dāng)前區(qū)域內(nèi)沒有找到目標(biāo)物,則會重新配置注意區(qū)域到下一個擁有最高激活程度的區(qū)域上,以此類推直到找到目標(biāo)或者出現(xiàn)搜索失敗。3)整合競爭理論(IntegratedCompetitionTheory)。整合競爭理論是以英國劍橋大學(xué)Duncan教授為代表提出的。Duncan將視覺注意理論定義為研究人們應(yīng)對同時發(fā)現(xiàn)多個物體的能力限制的方法。同時,他將這些理論分為三大派系:基于對象、差異以及空間的視覺注意理論。它們分別關(guān)注于同時察覺的獨立對象數(shù)目的限制、可以生成單獨差異域數(shù)目的限制以及空間區(qū)域內(nèi)可以提取信息的限制。而整合競爭理論則是基于對象的視覺注意機制模型研究的重要基礎(chǔ)之一。整合競爭理論來源于神經(jīng)心理學(xué)上的視覺注意模型,在該模型中,視覺信息對于注意的競爭體現(xiàn)在多個視覺響應(yīng)的人腦系統(tǒng)上,包括感覺與運動系統(tǒng)、大腦皮層與皮下層系統(tǒng)。通過多系統(tǒng)競爭的整合,會選擇同一個對象作為注意目標(biāo)。整合競爭理論的成立依賴于以下一般性原則:首先,視覺信息的輸入會引起多個大腦系統(tǒng)的參與,這里認(rèn)為在絕大多數(shù)系統(tǒng)中,對視覺信息的處理過程是相互競爭的:當(dāng)加強對某個對象的響應(yīng)時,就會導(dǎo)致減弱對其它對象的響應(yīng)。其次,自上而下的信息對神經(jīng)元活性的啟動會影響與當(dāng)前行為相關(guān)對象的競爭。比如,在執(zhí)行查找綠色字符任務(wù)時,在紋理系統(tǒng)中對顏色進行編碼,那么選擇綠色視覺信息的神經(jīng)元就會預(yù)先啟動,同時其它顏色就會被大大的抑制,從而導(dǎo)致綠色字符的顯示會占據(jù)競爭優(yōu)勢。最后,雖然競爭發(fā)生在各個大腦系統(tǒng)中,但是最終會由各部分的感覺運動神經(jīng)網(wǎng)絡(luò)完成競爭信息的整合。如果一個物體在某一個系統(tǒng)中獲得關(guān)注,那么在其它系統(tǒng)中,這個物體也同樣會得到大量的響應(yīng)處理資源。這種信息的整合對于目標(biāo)選擇始于特定任務(wù)時是非常有必要的。(3)視覺注意機制模型根據(jù)生理學(xué)和心理學(xué)領(lǐng)域研究成果,注意分為基于空間的注意和基于目標(biāo)的注意兩種。根據(jù)這兩個分類,在以上經(jīng)典理論的基礎(chǔ)上產(chǎn)生和發(fā)展了以下的注意機制計算模型。1)基于空間的注意機制模型①自底向上(bottom-up)注意模型。自底向上的注意是一種在圖像基礎(chǔ)上,由數(shù)據(jù)來驅(qū)動關(guān)注焦點的機制。Treisman的特征整合理論是自底向上注意模型的基礎(chǔ),也通過實驗證明了該類型的注意會在某些極端條件下獨立工作及其有效性。另外,這些自底向上注意模型的實現(xiàn),還有一個重要的組成部分,就是Koch計算顯著性的框架。Itti模型是空間注意模型的經(jīng)典代表,它是第一個復(fù)雜高效的可計算注意機制模型。Itti模型的總體架構(gòu)如圖5所示,其實現(xiàn)過程如下。第一階段:前期初級圖像特征提取。Itti模型使用線性濾波器提取圖像特征,并分別在每個通道和尺度下建立特征高斯金字塔。然后,在非均勻采樣的基礎(chǔ)上通過中央周邊差(Center-surroundDifference)計算方法提取特征圖FM。以顏色特征圖計算為例,設(shè)r、g、b分別表示彩色圖中的紅、綠、藍(lán)三色值,則有紅R、綠G、藍(lán)B、黃Y四個寬頻顏色通道分量為:R=r-(g+b)/2,G=g-(r+b)/2,B=b-(r+g)/2,Y=(r+g)/2-∣r-g∣/2-b(1)式中,數(shù)值為負(fù)數(shù)時則置為0。然后,根據(jù)中央周邊差理論計算基于高斯金字塔的紅綠雙向?qū)Ρ葓DRG,以及藍(lán)黃雙向?qū)Ρ葓DBY:RG(c,s)=∣(R(c)-G(c))Θ(G(s)-R(s)∣,BY(c,s)=∣(B(c)-Y(c))Θ(Y(s)-B(s)∣(2)式中,c和s均表示高斯金字塔尺度,且c∈{2,3,4},s=c+δ,δ∈{3,4},表示該模型選擇的不同尺度。同理,可以得到亮度特征圖和四個方向θ={0°,45°,90°,135°}上的方向特征圖。第二階段:生成顯著圖(SaliencyMap),使用標(biāo)準(zhǔn)化算子N(·)進行多特征合并。將所有特征圖進行合并操作,生成顯著圖。然后根據(jù)顯著圖中的注意焦點,定位或者轉(zhuǎn)換關(guān)注區(qū)域。標(biāo)準(zhǔn)化算子僅適用于沒有top-down信息的情況下,其處理各個特征圖的過程為:①標(biāo)準(zhǔn)化特征圖上的值到固定范圍[0,M]上,以消除各特征之間的幅值差異;②找出全局最大值M,計算其它局部最大的均值③最后全局乘以以最大程度上突出全局最大與局部最大值之間的差異。根據(jù)標(biāo)準(zhǔn)化算子計算各個特征維的顯著圖,尺度為4時的亮度、顏色、方向的顯著圖計算方法分別為:式中,表示跨尺度求和運算。然后,將這三個通道標(biāo)準(zhǔn)化后的顯著圖直接合并到最終的顯著圖S上:S=13(N(I‾)+N(C‾)+N(O‾))---(4)]]>通過勝者為王的策略,選擇顯著圖上的最大值區(qū)域作為初始關(guān)注焦點,切換關(guān)注到下一個最大值之前需要使用禁止返回機制,避免重復(fù)訪問同一個區(qū)域。通常,Itti算法具有較好的魯棒性和準(zhǔn)確性。但是,Itti模型生成的顯著圖只有原圖尺寸的1/256,這極大的限制了其應(yīng)用。所以,后續(xù)以Itti模型為指導(dǎo),產(chǎn)生了一些全尺寸的圖像顯著性區(qū)域提取算法。②自頂向下(top-down)注意模型。自頂向下的注意是一種在學(xué)習(xí)的基礎(chǔ)上,由任務(wù)或者知識驅(qū)動注意焦點的機制。由于在生理或心理學(xué)研究上,對于注意機制的具體工作方式還沒有了解清楚,這導(dǎo)致幾乎沒有可用的自頂向下注意機制計算模型。然而,那些離開上層數(shù)據(jù)的指引,只依靠圖片上的信息所產(chǎn)生的注意機制計算模型,會在目標(biāo)自身信息有限、位置尺寸可變以及不夠顯著時,導(dǎo)致其效率大大降低。在自頂向下注意方面的研究,較突出的一個成果是Navalpakkam建立的一個任務(wù)導(dǎo)向模型。該模型是在其老師Itti的工作基礎(chǔ)上形成的,其架構(gòu)如圖6所示。該模型的工作機理為:視覺腦以注意引導(dǎo)圖中最有意義的圖像塊為當(dāng)前顯著區(qū)域。代理主要是作為其它三個部分的通信接口,工作記憶和長期記憶兩個知識庫用于計算當(dāng)前顯著區(qū)域的相關(guān)性,并用于更新任務(wù)相關(guān)圖。目標(biāo)識別的循環(huán)終止條件是,在任務(wù)相關(guān)圖找到所有相關(guān)實體。2)基于目標(biāo)的注意機制模型在整合競爭理論的基礎(chǔ)上,注意機制模型是以物體為對象來進行切換、選擇焦點,從而生成基于目標(biāo)的注意模型。同時,這些模型基于以下觀點:視覺系統(tǒng)在預(yù)注意階段就會對所獲取的圖像進行初步聚類分析,同時注意機制就在這些聚類目標(biāo)中選取特定目標(biāo)。Sun和Fisher提出基于目標(biāo)的視覺注意計算模型在該領(lǐng)域內(nèi)廣為流傳,該模型發(fā)展了Duncan的整合競爭理論,并且融合了Koch和Itti等的視覺顯著性計算模型、自底向上和自頂向下的視覺注意間的交互、基于目標(biāo)的注意機制和基于空間的注意機制的結(jié)合、目標(biāo)內(nèi)及目標(biāo)間的視覺表示等知識塊。在此模型中,注意力的競爭不僅存在于目標(biāo)內(nèi)部,也存在與各個目標(biāo)之間,而且注意力的轉(zhuǎn)移分層進行。該模型架構(gòu)如圖7所示。Sun-Fisher模型主要解決的問題可以歸納為以下幾點:首先,主要特征提取。這與Itti等提出的顯著性模型類似,將輸入圖像分解成一系列多尺度的特征圖,由此產(chǎn)生四個顏色金字塔(R,G,B,Y),一個亮度金字塔(I)和四個方向金字塔(θ={0°,45°,90°,135°}),實現(xiàn)一種自底向上的注意。其次,編組顯著性映射。該模塊實現(xiàn)了基于目標(biāo)的注意和基于對象的注意融合,形成了一個目標(biāo)和空間的層次結(jié)構(gòu)。一個編組可以是一個點、一個物體、也可以是多個編組組成的層次結(jié)構(gòu)。編組的顯著性不僅由其周圍的環(huán)境決定,同時還有編組內(nèi)部各部件間的相互合作和競爭的影響。最后,注意競爭和焦點轉(zhuǎn)移。該操作在模型中是多尺度的,具有由初次都到細(xì)尺度的層次結(jié)構(gòu)。注意焦點由自底向上的顯著性和自頂向下的指導(dǎo)共同決定。注意競爭首先在最粗的尺度下,且未被注意到過的目標(biāo)上進行。綜上所述,將視覺注意機制引入到流水生產(chǎn)線中進行目標(biāo)零件識別和定位,會使工業(yè)機器人在作業(yè)過程中具有更大的靈活性。并且開發(fā)和應(yīng)用視覺注意機制將有助于更進一步地提高工業(yè)機器人的智能水平。技術(shù)實現(xiàn)要素:本發(fā)明的目的在于克服目前在工業(yè)生產(chǎn)流水線上,生產(chǎn)零件需要通過傳統(tǒng)的人工識別和手工裝配的不足,提供了一種通用性、魯棒性、并行性、適用性更好的基于視覺注意機制的目標(biāo)零件識別方法。本發(fā)明的目的通過下述技術(shù)方案實現(xiàn):一種基于視覺注意機制的目標(biāo)零件識別方法,所述目標(biāo)零件識別方法包括:步驟S1、視覺注意機制模型選擇,選擇基于特征的注意機制模型和基于空間的注意機制模型,以便能夠在此基礎(chǔ)上利用生物的中央周邊濾波器結(jié)構(gòu),在多個空間尺度上提取特征,所述特征包括顏色、方向、亮度;步驟S2、特征組合的顯著圖生成,將顏色、方向和亮度特征組合成為特征圖,從而得到對應(yīng)于顏色、方向、亮度特征的顯著性描述,并將這些特征的顯著性描述經(jīng)過歸一化計算及線性組合后形成顯著圖;步驟S3、目標(biāo)生產(chǎn)零件識別策略,按照采集零件圖像、生成顯著圖、二值化處理及優(yōu)化、抽取顯著區(qū)域、零件區(qū)域抽取的流程來進行零件識別。進一步地,所述基于特征的注意機制模型以關(guān)鍵字形式給出具體任務(wù),將生產(chǎn)零件的顏色、方向、亮度特征作為標(biāo)本,與所需生產(chǎn)零件的顏色、方向、亮度特征的最小偏差作為顯著度,首先用先驗知識定義當(dāng)前生產(chǎn)零件并存儲起來,接著通過學(xué)習(xí)生產(chǎn)零件的基本特征,計算基本特征與已有特征的相識度,從而檢測出最相關(guān)的生產(chǎn)零件,最后在目標(biāo)場景中找到最顯著的位置,并與已有的生產(chǎn)零件進行匹配。進一步地,所述基于空間的注意機制模型利用生物的中央周邊濾波器結(jié)構(gòu),在多個空間尺度上提取生產(chǎn)零件的顏色、方向、亮度特征,然后將上述特征組合成為特征圖,從而得到對應(yīng)于生產(chǎn)零件的顏色、方向、亮度特征的顯著性描述,最后將上述特征的顯著性描述經(jīng)過經(jīng)過歸一化計算及線性組合形成生產(chǎn)零件的顯著圖。進一步地,所述步驟S2、特征組合的顯著圖生成具體包括:步驟S21、基于顏色、亮度和方向特征生成顯著圖,對輸入圖像在不同層次上進行非均勻采樣,接著通過濾波器提取不同尺度的顏色、亮度和方向特征,然后再將各尺度層上的特征變換為同一尺度多個級別的特征圖,接著計算其中央—周邊差后再歸一化得到顏色、亮度和方向特征的關(guān)注圖,最終融合顏色、亮度和方向特征的關(guān)注圖生成顯著圖;步驟S22、基于直方圖對比對顯著圖進行顯著值提??;步驟S23、基于區(qū)域?qū)Ρ鹊乃惴▽︼@著圖進行顯著值提取。進一步地,所述步驟S21、基于顏色、亮度和方向特征生成顯著圖包括:S211、采用高斯金字塔模型,在不同層次上進行非均勻采樣,對一幅輸入圖像I(x,y)用高斯金字塔G(x,y,σ)進行如下的非均勻采樣:R(x,y,σ)=I(x,y)⊗G(x,y,σ),]]>G(x,y,σ)=12πσ2exp(-x2+y22σ2),]]>式中,σ是尺度因子,也即高斯金字塔G(x,y,σ)的帶寬;S212、提取圖像的顏色、亮度、方向特征,采用中央—周邊差算子進行特征提取,分別用r、g和b來表示紅色、綠色、藍(lán)色通道,則圖像的亮度特征表示為I(x)=[r(x)+g(x)+b(x)]/3對原輸入圖像提取四個顏色通道紅色、綠色、藍(lán)色、黃色上的分量:紅色R=r-(g+b)/2,綠色G=g-(r+b)/2,藍(lán)色B=b-(r+g)/2,黃色Y=(r+g)/2-∣r-g∣/2-b,方向特征采用四個方向的分量,其中θ={0°,45°,90°,135°},在圖像的每個顏色通道上建立高斯金字塔模型,并通過中央—周邊差算子得到圖像在顏色特征上的特征映射圖,計算方法如下:利用中心C和周邊S的高斯差分DOG(x,y)計算圖像I(x,y)的特征顯著度DOG(x,y)=12πσC2exp(-x2+y22σC2)-12πσS2exp(-x2+y22σ2)]]>式中,σc是中心C的尺度因子,σs是周邊S的尺度因子,通過對上級圖像插值放大得到周邊圖像,用符號Θ表示中央C和周邊S差的計算,中央周邊差計算結(jié)果是對應(yīng)特征的關(guān)注圖:亮度特征圖I(c,s)=∣I(c)ΘI(s)∣,顏色特征圖RG(c,s)=∣(R(c)-G(c))Θ(G(s)-I(s))∣,BY(c,s)=∣(B(c)-Y(c))Θ(Y(s)-B(s))∣,方向特征圖O(c,s,θ)=∣O(c,θ)ΘO(s,θ)∣;S213、對特征關(guān)注圖分別進行歸一化處理并生成最終顯著圖,對經(jīng)過歸一化的N(I(c,s))、N(RG(c,s))、N(BY(c,s))及N(O(c,s,θ))使用運算結(jié)合得到最終顯著圖,其中,是在不同尺度層上對每一個特征的特征映射圖進行降采樣,得到最高的主尺度層,再進行加法運算得到顏色、亮度、方向特征上的關(guān)注圖其中,亮度歸一化特征圖顏色歸一化特征圖方向歸一化特征圖進一步地,所述步驟S22、基于直方圖對比對顯著圖進行顯著值提取具體為:對輸入圖像中的每個像數(shù)都定義一個顯著值,該顯著值通過這個像數(shù)的顏色和其它像數(shù)的顏色對比來表示,在一幅圖像中一個像素的顯著值定義為S(Ik)=Σ∀Ii∈ID(Ik,Ii)]]>上式進一步擴展成為如下形式S(Ik)=D(Ik,I1)+D(Ik,I2)+...+D(Ik,IN)式中,N是圖像中的像素個數(shù),得到每種顏色的顯著值如下S(Ik)=S(ci)=Σj=1nfjD(c1,cj)]]>式中,ci是像素Ik的顏色值,n是不同顏色的像素數(shù)量,fj是圖像I(x,y)中顏色值為cj的像素數(shù)目,通過顏色量化和選擇出現(xiàn)頻率顏色的方式建立一個簡潔的直方圖。進一步地,所述步驟S23、基于區(qū)域?qū)Ρ鹊乃惴▽︼@著圖進行顯著值提取具體為:先利用圖像分割算法將圖像分割成各個區(qū)域,然后對每個區(qū)域構(gòu)建顏色直方圖,對于一個區(qū)域,通過計算它與圖像中所有其他區(qū)域的顏色對比來計算其的顯著值S(rk)=Σrk≠riw(ri)Dr(rk,ri)]]>式中,w(ri)是區(qū)域ri的權(quán)值來計算,Dr(rk,ri)是兩個區(qū)域的空間距離。使用區(qū)域ri中的像素個數(shù)來作為w(ri),區(qū)域r1和r2之間的顏色距離定義為Dr(r1,r2)=Σi=1n1Σj=1n2f(c1,i)f(c2,j)D(c1,i,c2,j)]]>式中,f(ck,i)是區(qū)域ck所有nk個顏色中第i個顏色的頻率,其中k={1,2}。進一步地,所述步驟S3、目標(biāo)生產(chǎn)零件識別策略具體包括:步驟S31、采集零件圖像并生成顯著圖,在工業(yè)生產(chǎn)流水線上采集一幅零件圖像,從圖像中提取出顯著的零件區(qū)域時,使用基于直方圖對比方法,對零件進行顯著性檢測,一幅圖像的每個像素使用顏色統(tǒng)計來定義顯著值:S(Ik)=Σ∀Ii∈ID(Ik,Ii)]]>式中,D(Ik,Ii)為L*a*b空間中Ik和Ii間的距離。對于像素Ii,其顏色為ci,就可以得到每種顏色的顯著值,由上式變?yōu)镾(Ik)=S(cl)=Σj=1nfi×D(cl,cj)]]>式中,n為圖像中所包含的顏色總數(shù),fi為圖像I中顏色cj出現(xiàn)的概率;步驟S32、二值化處理及優(yōu)化,為實現(xiàn)物體和噪聲分離及后續(xù)的顯著區(qū)域提取,采用OTSU算法確定閾值進行二值化,使用固定閾值T∈[0,255]進行二值化;步驟S33、抽取顯著區(qū)域,對優(yōu)化后的二值圖像在每個區(qū)域內(nèi)使用一個外接矩形抽取零件顯著區(qū)域,通過建立凸外殼并且旋轉(zhuǎn)外殼尋找給定2D點集的最小面積包圍矩形,即為最小外接矩形,這些最小外接矩形將二值圖像分為不同區(qū)域,每個區(qū)域?qū)?yīng)不同的零件,記錄每個外接矩形的位置和大小,在相應(yīng)的原始采集圖像的相同位置添加同樣大小的矩陣;步驟S34、零件區(qū)域抽取,通過零件的幾何形狀特征識別出零件,即采用圓形和方形形狀的圓形度、矩形度、面積和周長特征識別出不同的目標(biāo)零件,上述特征的特征值分別定義如下:①面積B是零件所在區(qū)域二值圖像對應(yīng)的矩陣;②周長P,是圍繞一個區(qū)域所有像素外邊界的長度;③圓形度E=4πA/P2;④矩形度R=A/AR,其中AR為最小外接矩形的面積。步驟S35、零件識別,識別工業(yè)生產(chǎn)流水線上是否存在目標(biāo)零件。進一步地,所述步驟S35、零件識別中為分割提取每一個零件的二值圖像,定義一個四元組auxi=(Ai,Pi,Ei,Ri),其中Ai,Pi,Ei,Ri分別對應(yīng)第i個零件的面積、周長、圓形度、矩形度,零件識別算法具體如下:S351、定義一個目標(biāo)四元組target=(A0,P0,E0,R0),為目標(biāo)零件的特征向量;S352、對每個零件的auxi=(Ai,Pi,Ei,Ri),計算其與目標(biāo)零件的區(qū)分度proi=Σj=14auxi(j)-target(j)]]>式中,auxi(j)表示四元組中j個元素;S353、將所有的區(qū)分度proi進行升序排列,如果最小的區(qū)分度大于某一正實數(shù)ε,則認(rèn)為工業(yè)生產(chǎn)流水線上沒有目標(biāo)零件,并給出提示信息。否則,將最小區(qū)分度所對應(yīng)的區(qū)域作為目標(biāo)零件區(qū)域。進一步地,所述步驟S32、二值化處理及優(yōu)化中固定閾值T設(shè)定在80~100之間;所述步驟S33、抽取顯著區(qū)域中使用稻米輪廓最小外接矩形計算粒型或者利用頂點鏈碼與離散格林理論相結(jié)合的方式通過主軸法和旋轉(zhuǎn)法提取目標(biāo)圖像的最小外接矩形。本發(fā)明相對于現(xiàn)有技術(shù)具有如下的優(yōu)點及效果:本發(fā)明公開的一種基于視覺注意機制的目標(biāo)零件識別方法,使工業(yè)機器人的視覺系統(tǒng)能夠有效地識別工作空間內(nèi)的目標(biāo)零件,準(zhǔn)確地定位目標(biāo)零件,從而使工業(yè)機器人在完成生產(chǎn)零件裝配作業(yè)時具有更高的自主性、魯棒性、適應(yīng)性,可以適用于工業(yè)生產(chǎn)流水線上各類零件的檢測、上料、裝配、包裝等場合。附圖說明圖1(a)是基于視覺注意機制的目標(biāo)零件識別流程步驟示意圖;圖1(b)是視覺注意機制模型原理圖;圖2(a)是視覺注意示例一;圖2(b)是視覺注意示例二;圖2(c)是視覺注意示例三;圖3是注意的特征整合理論;圖4是引導(dǎo)搜索模型架構(gòu);圖5是Itti模型架構(gòu);圖6是任務(wù)驅(qū)動注意模型架構(gòu);圖7是Sun-Fisher注意計算模型架構(gòu);圖8是目標(biāo)零件識別流程圖;圖9是工作臺零件圖;圖10是生成的顯著圖;圖11是OTSU二值圖;圖12是固定閥值二值圖;圖13(a)是優(yōu)化過程1;圖13(b)是優(yōu)化過程2;圖13(c)是優(yōu)化過程3;圖14是優(yōu)化后二值圖;圖15是二值圖像顯著區(qū)域;圖16是采集圖像的顯著區(qū)域;圖17是六個樣本零件;圖18是區(qū)分度分布圖。具體實施方式為使本發(fā)明的目的、技術(shù)方案及優(yōu)點更加清楚、明確,以下參照附圖并舉實施例對本發(fā)明進一步詳細(xì)說明。應(yīng)當(dāng)理解,此處所描述的具體實施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。實施例本實施例公開了一種通用性、魯棒性、并行性、適用性更好的基于視覺注意機制的目標(biāo)零件識別方法,具體技術(shù)方案如圖1(a)和圖1(b)所示。所述方法包括以下三個步驟:S1、視覺注意機制模型選擇。選擇基于特征的注意機制模型和基于空間的注意機制模型,以便能夠在此基礎(chǔ)上利用生物的中央周邊濾波器結(jié)構(gòu),在多個空間尺度上提取特征,這些特征包括顏色、方向、亮度。S2、特征組合的顯著圖生成。將所述的顏色、亮度和方向特征組合成為特征圖,從而得到了對應(yīng)于顏色、方向、亮度特征的顯著性描述,并將這些特征的顯著性描述經(jīng)過歸一化計算及線性組合后形成顯著圖。S3、目標(biāo)生產(chǎn)零件識別策略。按照采集零件圖像、生成顯著圖、二值化處理及優(yōu)化、抽取顯著區(qū)域、零件區(qū)域抽取等流程來進行零件識別。下面分別對這三個步驟進行闡述。步驟S1、視覺注意機制模型選擇;本發(fā)明專利選擇基于特征的視覺注意機制模型和基于空間的視覺注意機制模型。基于特征的視覺注意機制模型以關(guān)鍵字形式給出具體任務(wù),首先用先驗知識定義當(dāng)前生產(chǎn)零件并存儲起來,接著通過學(xué)習(xí)生產(chǎn)零件的一些基本特征,計算這些特征與已有特征的相識度,從而檢測出最相關(guān)的生產(chǎn)零件,最后在目標(biāo)場景中找到最顯著的位置,并與已有的一些生產(chǎn)零件進行匹配?;诳臻g的視覺注意機制模型首先利用生物的中央周邊濾波器結(jié)構(gòu),在多個空間尺度上提取生產(chǎn)零件的顏色、方向、亮度特征。然后將這些特征組合成為特征圖,從而得到對應(yīng)于生產(chǎn)零件的顏色、方向、亮度等特征的顯著性描述。這些特征的顯著性描述經(jīng)過經(jīng)過歸一化計算及線性組合形成生產(chǎn)零件的顯著圖。S11、基于特征的注意機制模型選擇;該模型是將生產(chǎn)零件的顏色、方向、亮度特征作為標(biāo)本,與所需生產(chǎn)零件的顏色、方向、亮度特征的最小偏差作為顯著度。這樣就可以計算空間顯著圖和識別生產(chǎn)零件的分層。所述基于特征的注意機制模型描述所需特征的方式是采用自頂向下的方法。例如,提取一幅生產(chǎn)零件圖像中顏色、方向、亮度特征,得到不同特征下的顯著圖。該模型以關(guān)鍵字形式給出具體任務(wù),首先用先驗知識定義當(dāng)前生產(chǎn)零件并存儲起來,接著通過學(xué)習(xí)生產(chǎn)零件的一些基本特征,計算這些特征與已有特征的相識度,從而檢測出最相關(guān)的生產(chǎn)零件,最后在目標(biāo)場景中找到最顯著的位置,并與已有的一些生產(chǎn)零件進行匹配。S12、基于空間的注意機制模型選擇;所謂空間是指注意對象所在的場景或一定的外界空間范圍,它是一種常見描述注意力的方式。該模型認(rèn)為注意力開始作用時是以外界空間中的某一特定范圍來選擇注意的,在此空間范圍內(nèi)的視覺刺激會被觀察者注意到,而其它地方的視覺刺激會被自動忽略。著名學(xué)者Itti等在1998年依據(jù)特征整合理論提出了經(jīng)典的Itti視覺注意模型,如圖7所示。本發(fā)明專利以此為基礎(chǔ),首先利用生物的中央周邊濾波器結(jié)構(gòu),在多個空間尺度上提取生產(chǎn)零件的特征,這些特征包括生產(chǎn)零件的顏色、方向、亮度等。然后將這些特征組合成為特征圖,從而得到對應(yīng)于生產(chǎn)零件的顏色、方向、亮度等特征的顯著性描述。最后將這些特征的顯著性描述經(jīng)過經(jīng)過歸一化計算及線性組合形成生產(chǎn)零件的顯著圖。步驟S2、特征組合的顯著圖生成;特征組合的顯著圖生成,實際上是采用高斯金字塔模型進行非均勻采樣,并提取生產(chǎn)零件圖像的顏色、亮度、方向等特征,以及歸一化處理來生成最終融合了顏色、亮度和方向特征這三個特征的關(guān)注圖生成顯著圖。顯著圖是1985年由有關(guān)學(xué)者為了衡量一幅圖像的顯著性而提出來的顯著特征圖(簡稱顯著圖)的概念。顯著圖是一種表征圖像視覺注意區(qū)域的二維分布圖,在顯著圖中灰度值越大表明對應(yīng)的區(qū)域顯著性越強,更能引起人類視覺系統(tǒng)的注意,灰度的局部最大值對應(yīng)點稱為圖像的顯著特征點。如果把顯著圖比作是一張地圖,那么顯著性最大的地方相當(dāng)于地圖上地形最高點,局部特征點相當(dāng)于局部的小山峰,地勢相對越高的區(qū)域越容易引起人們的關(guān)注。一幅顯著圖至少能夠提供圖像哪里的顯著性較大和顯著性區(qū)域的范圍有多廣等兩項信息。S21、顯著圖生成;首先,對輸入圖像在不同層次上進行非均勻采樣,接著,通過濾波器提取不同尺度的顏色、亮度和方向特征。然后再將各尺度層上的特征變換為同一尺度多個級別的特征圖。接著,計算其中央——周邊差后再歸一化得到三個特征的關(guān)注圖。最終,融合這三個特征的關(guān)注圖生成顯著圖。本發(fā)明專利采用經(jīng)典的Itti模型生成顯著圖,其中非均勻采樣和提取特征兩個步驟如下:S211、采用高斯金字塔模型,在不同層次上進行非均勻采樣。對一幅輸入圖像I(x,y)用高斯金字塔G(x,y,σ)進行如下的非均勻采樣:R(x,y,σ)=I(x,y)⊗G(x,y,σ)]]>G(x,y,σ)=12πσ2exp(-x2+y22σ2)]]>式中,σ是尺度因子,也即高斯金字塔G(x,y,σ)的帶寬。S212、提取圖像的顏色、亮度、方向特征;因為圖像的顯著度是對各個特征尺度內(nèi)的對比體現(xiàn),所以可以采用中央—周邊差算子進行特征提取。分別用r、g和b來表示紅色、綠色、藍(lán)色通道,則圖像的亮度特征表示為I(x)=[r(x)+g(x)+b(x)]/3對原圖像提取四個顏色通道紅色、綠色、藍(lán)色、黃色上的分量:紅色R=r-(g+b)/2,綠色G=g-(r+b)/2,藍(lán)色B=b-(r+g)/2,黃色Y=(r+g)/2-∣r-g∣/2-b。方向特征采用了四個方向的分量,其中θ={0°,45°,90°,135°}。在圖像的每個顏色通道上建立高斯金字塔模型,并通過中央—周邊差算子得到圖像在顏色特征上的特征映射圖。計算方法如下:利用中心C和周邊S的高斯差分DOG(x,y)計算圖像I(x,y)的特征顯著度DOC(x,y)=12πσC2exp(-x2+y22σC2)-12πσS2exp(-x2+y22σ2)]]>式中,σc是中心C的尺度因子,σs是周邊S的尺度因子。通過對上級圖像插值放大得到周邊圖像,用符號Θ表示中央C和周邊S差的計算。中央周邊差計算結(jié)果是對應(yīng)特征的關(guān)注圖:亮度特征圖I(c,s)=∣I(c)ΘI(s)∣,顏色特征圖RG(c,s)=∣(R(c)-G(c))Θ(G(s)-I(s))∣,BY(c,s)=∣(B(c)-Y(c))Θ(Y(s)-B(s))∣;方向特征圖O(c,s,θ)=∣O(c,θ)ΘO(s,θ)∣。從式(8)可看出,中央—周邊差最能反映圖像顯著度的高低。在得到了關(guān)注圖后,會出現(xiàn)某種特征存在多處反差極大值的情況,這時就會出現(xiàn)大量的顯著峰。如果直接合并這些存在大量顯著峰的特征關(guān)注圖,就會抑制擁有顯著峰較少的其他特征。所以在合并關(guān)注圖生成顯著圖之前,需要對其進行歸一化。S213、對特征關(guān)注圖分別進行歸一化處理并生成最終顯著圖。從視覺注意機制來說,人的注意力會受到太多強反差區(qū)域的相影響,顯著度反而降低。由此,需要對顯著峰少的特征圖進行歸一化,Itti模型使用歸一化因子削弱存在大量顯著峰的特征圖。對經(jīng)過歸一化的N(I(c,s))、N(RG(c,s))、N(BY(c,s))及N(O(c,s,θ))使用運算結(jié)合得到最終顯著圖。其中,是在不同尺度層上對每一個特征的特征映射圖進行降采樣,得到最高的主尺度層,再進行加法運算得到顏色、亮度、方向特征上的關(guān)注圖其中,亮度歸一化特征圖顏色歸一化特征圖方向歸一化特征圖S22、基于直方圖對比(Histogram-basedContrast,HC)對顯著圖進行顯著值提取。通過對生物視覺注意機制的觀察,有關(guān)學(xué)者發(fā)現(xiàn)了生物體對視覺信號對比敏感,因而提出了HC算法。該算法是一種基于直方圖對比的顯著圖提取算法,對輸入圖像中的每個像數(shù)都定義一個顯著值,該顯著值通過這個像數(shù)的顏色和其它像數(shù)的顏色對比來表示。在一幅圖像中一個像素的顯著值定義為S(Ik)=Σ∀Ii∈ID(Ik,Ii)]]>式中,D(Ik,It)是L*a*b空間中像數(shù)Ik和It的空間距離。上式也可以擴展成為如下形式S(Ik)=D(Ik,I1)+D(Ik,I2)+...+D(Ik,IN)式中,N是圖像中的像素個數(shù)。然而很容易看出在這個定義下相同的顏色值是有相同顯著性的。因此對相同的顏色算在一組,就可以得到每種顏色的顯著值如下S(Ik)=S(ci)=Σj=1nfjD(c1,cj)]]>式中,ci是像素Ik的顏色值,n是不同顏色的像素數(shù)量,fj是圖像I(x,y)中顏色值為cj的像素數(shù)目。為了有效地計算顏色對比,通過顏色量化和選擇出現(xiàn)頻率顏色的方式建立一個簡潔的直方圖。然而量化本身也會產(chǎn)生噪聲,一些相同的顏色經(jīng)過量化后可能會產(chǎn)生不同的值。為了降低由此而產(chǎn)生的噪聲干擾,需要使用平滑技術(shù)來重新定義每種顏色的顯著值。S23、基于區(qū)域?qū)Ρ鹊乃惴?Region-basedContrast,RC)在一幅圖像中,人們往往會注意到圖像中與其他區(qū)域產(chǎn)生強烈對比的區(qū)域,除對比之外,空間關(guān)系也會對人類視覺注意產(chǎn)生影響。與其他區(qū)域之間的對比越強烈,這個區(qū)域的顯著性就越大。有學(xué)者提出了RC算法。RC算法將空間關(guān)系整合成區(qū)域級的計算,采用各個區(qū)域的稀疏直方圖對比方法,先利用圖像分割算法將圖像分割成各個區(qū)域,然后對每個區(qū)域構(gòu)建顏色直方圖。對于一個區(qū)域,通過計算它與圖像中所有其他區(qū)域的顏色對比來計算它的顯著值S(rk)=Σrk≠riw(ri)Dr(rk,ri)]]>式中,w(ri)是區(qū)域ri的權(quán)值來計算,Dr(rk,ri)是兩個區(qū)域的空間距離。為了突出于其他大區(qū)域的對比,這里使用區(qū)域ri中的像素個數(shù)來作為w(ri)。區(qū)域r1和r2之間的顏色距離定義為Dr(r1,r2)=Σi=1n1Σj=1n2f(c1,i)f(c2,j)D(c1,i,c2,j)]]>式中,f(ck,i)是區(qū)域ck所有nk個顏色中第i個顏色的頻率,其中k={1,2}。這也就是使用顏色出現(xiàn)的頻率作為權(quán)值來表現(xiàn)主要顏色之間的差別。在計算每個區(qū)域的直方圖時,由于每個區(qū)域中只包含了整幅圖像顏色直方圖中的一小部分顏色,所以通過常規(guī)矩陣來計算和存儲直方圖的效率很低。因此,為了更好地存儲和計算,通常采用稀疏矩陣來代替。步驟S3、目標(biāo)生產(chǎn)零件識別策略本發(fā)明專利采用的目標(biāo)生產(chǎn)零件識別策略如圖8所示,也即對工業(yè)生產(chǎn)流水線上采集一幅零件圖像,按照采集零件圖像、生成顯著圖、二值化處理及優(yōu)化、抽取顯著區(qū)域、零件區(qū)域抽取、零件識別的流程步驟來進行。S31、采集零件圖像并生成顯著圖。在工業(yè)生產(chǎn)流水線上采集一幅零件圖像,如圖9所示。從圖像中提取出顯著的零件區(qū)域時,使用基于直方圖對比方法,對零件進行顯著性檢測。該方法基于生物視覺對視覺信號對比敏感的觀察。對圖像中的每個像素,其顯著性通過其顏色與圖像中其他像素的顏色對比來表示。一幅圖像的每個像素使用顏色統(tǒng)計來定義顯著值:S(Ik)=Σ∀Ii∈ID(Ik,Ii)]]>式中,D(Ik,Ii)為L*a*b空間中Ik和Ii間的距離。對于像素Ii,其顏色為ci,就可以得到每種顏色的顯著值,由上式變?yōu)镾(Ik)=S(cl)=Σj=1nfi×D(cl,cj)]]>式中,n為圖像中所包含的顏色總數(shù),fi為圖像I中顏色cj出現(xiàn)的概率。因為在工業(yè)生產(chǎn)流水線上采集的圖像不大,用現(xiàn)PC機能夠?qū)崟r地對此進行處理。生成的顯著圖如圖9所示。S32、二值化處理及優(yōu)化。為了實現(xiàn)物體和噪聲分離及后續(xù)的顯著區(qū)域提取,需要對圖11進行二值化處理。通常采用OTSU算法確定閾值進行二值化。OTSU算法是一種自適應(yīng)計算單閾值的簡單高效方法,該方法以最佳門限將圖像灰度直方圖分成目標(biāo)和背景兩個部分,使兩部分類間方差取最大值,即分離性最大。該方法在目標(biāo)和背景形成明顯灰度差的圖像中效果顯著,對于圖10中零件與背景灰度值相差不大的情況,分離效果不明顯,容易造成同一零件斷層現(xiàn)象,如圖11所示,使得抽取零件時所建立的最小外接矩形不能準(zhǔn)確地包含同一個零件。在本發(fā)明專利申請中,結(jié)合實際情況使用固定閾值T∈[0,255]進行二值化。為了可靠地凸顯顯著區(qū)域,經(jīng)過多次試驗,將T設(shè)定在0到255之間變化,對比顯著效果后將閾值設(shè)定為80~100之間比較好,實際采用80最為合適,如圖12所示。同時,為了排除噪聲對二值圖像的影響,還需要進行優(yōu)化。具體優(yōu)化過程如圖13所示:①若當(dāng)前點的像素值為0,則搜索下一個像素點,如圖13(a)所示;②若當(dāng)前點的像素值為1,且該點的右上、正上、左上、左前的像素值都為0,則說明遇到新的目標(biāo)零件。在圖像矩陣中該位置上的編號值為上一個非零編號值加1,搜索下一個像素點,如圖13(b)所示;③若當(dāng)前點的像素值為1,且該點的右上、正上、左上、左前中至少有一個像素值為1,則在矩陣中該位置上放置任何一個像素值為1的對應(yīng)編號,搜索下一個像素點,如圖13(c)所示。這樣在矩陣中存在不同編號的多個區(qū)域,分別對應(yīng)圖10中不同的物體和噪聲,統(tǒng)計相同編號的個數(shù),就可以獲得該區(qū)域的面積,將面積過小的區(qū)域(該區(qū)域通常情況下對應(yīng)噪聲部分)設(shè)為背景去掉,效果如圖14所示。S33、抽取顯著區(qū)域。為了方便獲取零件的3D位置,對優(yōu)化后的二值圖像在每個區(qū)域內(nèi)使用一個外接矩形抽取零件顯著區(qū)域。例如,可以使用稻米輪廓最小外接矩形計算粒型,或者利用頂點鏈碼與離散格林理論相結(jié)合的方式通過主軸法和旋轉(zhuǎn)法提取目標(biāo)圖像的最小外接矩形。通過建立凸外殼并且旋轉(zhuǎn)外殼尋找給定2D點集的最小面積包圍矩形,即為最小外接矩形。如圖15所示。這些外接矩形將二值圖像分為不同區(qū)域,每個區(qū)域?qū)?yīng)不同的零件。記錄每個外接矩形的位置和大小,在相應(yīng)的原始采集圖像的相同位置添加同樣大小的矩陣,為了突出顯著區(qū)域,可以將外接矩形邊框設(shè)為不同顏色,如圖16所示。S34、零件區(qū)域抽取。由于大部分零件是由圓形或方形等簡單幾何形狀組合構(gòu)成,故可以通過零件的幾何形狀特征識別出零件,即采用圓形和方形形狀的圓形度、矩形度、面積和周長等特征識別出不同的目標(biāo)零件。充分利用零件本身的形狀和幾何特征,就可以避免樣本訓(xùn)練和特征匹配等通用模式識別算法帶來的復(fù)雜性等缺點。本發(fā)明專利申請采用的特征值分別定義如下:①面積B是零件所在區(qū)域二值圖像對應(yīng)的矩陣;②周長P,是圍繞一個區(qū)域所有像素外邊界的長度;③圓形度E=4πA/P2;④矩形度R=A/AR,其中AR為最小外接矩形的面積。S35、零件識別。為了在圖17中分割提取每一個零件的二值圖像,定義一個四元組auxi=(Ai,Pi,Ei,Ri),其中Ai,Pi,Ei,Ri分別對應(yīng)第i個零件的面積、周長、圓形度、矩形度。識別算法如下:S351、定義一個目標(biāo)四元組target=(A0,P0,E0,R0),為目標(biāo)零件特征向量。S352、對每個零件的auxi=(Ai,Pi,Ei,Ri),計算其與目標(biāo)零件的區(qū)分度proi=Σj=14auxi(j)-target(j)]]>式中,auxi(j)表示四元組中j個元素。S353、將所有的區(qū)分度proi進行升序排列,如果最小的區(qū)分度大于某一正實數(shù)ε,則認(rèn)為工業(yè)生產(chǎn)流水線上沒有目標(biāo)零件,并給出提示信息。否則,將最小區(qū)分度所對應(yīng)的區(qū)域作為目標(biāo)零件區(qū)域。這樣就可以進行后續(xù)的引導(dǎo)工業(yè)機器人及其機械手進行零件裝配。進行零件區(qū)分度實驗,選取6個不同的零件為樣本,如圖17所示。為了觀察同一零件旋轉(zhuǎn)不同的角度特征變化情況及不同零件之間特征的差異性,分別計算零件1~6以及零件1在工業(yè)生產(chǎn)流水線上依次按順時針旋轉(zhuǎn)60度的二值圖像面積、周長、圓形度和矩形度。為了量化差異性,按照式(11)定義的區(qū)分度計算公式計算不同零件以及同一零件旋轉(zhuǎn)不同的角度與目標(biāo)零件1的區(qū)分度。結(jié)果如表1所示。表1物體面積A周長P圓形度E矩形度R區(qū)分度零件1樣本2645721920.06920.7800--旋轉(zhuǎn)60度2698420770.07860.78670.0220旋轉(zhuǎn)120度2419725540.04660.82130.0118旋轉(zhuǎn)180度2614720520.07800.79700.0209旋轉(zhuǎn)240度2684620800.07800.79820.0195旋轉(zhuǎn)300度2490625010.05000.80680.0187零件2樣本2260128480.03500.68600.3696零件3樣本3473629590.04990.68250.3138零件4樣本2816626620.04990.68140.7394零件5樣本661428020.01060.69761.3682零件6樣本496828020.00800.47721.6700從表1可以看出,零件1旋轉(zhuǎn)不同的角度后各個特征值變化不大,計算出來區(qū)分度的值都小于0.1,對于零件2~6與零件1比較,計算出來的區(qū)分度值都大于0.3。如圖18所示,因此可以將區(qū)分度的閾值定義為0.1。如果通過計算得到某零件的區(qū)分度值大于0.1,則認(rèn)為該零件與目標(biāo)零件(指零件1)不是同一零件,反之則認(rèn)為該零件為目標(biāo)零件。上述實施例為本發(fā)明較佳的實施方式,但本發(fā)明的實施方式并不受上述實施例的限制,其他的任何未背離本發(fā)明的精神實質(zhì)與原理下所作的改變、修飾、替代、組合、簡化,均應(yīng)為等效的置換方式,都包含在本發(fā)明的保護范圍之內(nèi)。當(dāng)前第1頁1 2 3