本發(fā)明屬于背景建模技術(shù)領(lǐng)域,涉及一種基于區(qū)域塊的背景建模物體檢測方法,具體涉及一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法。
背景技術(shù):
在背景建模技術(shù)領(lǐng)域,基于區(qū)域塊的背景建模方法流程一般主要分為兩部分:(1)將每一幀圖像劃分成若干個區(qū)域塊(小的樣本區(qū)域);(2)在區(qū)域塊的級別上建立背景模型(這樣的方法可以有效利用圖像的上下文信息)。
在基于區(qū)域塊的背景建模方法研究中,h.grabner提出了針對每一個背景區(qū)域塊,利用在線學(xué)習(xí)的優(yōu)勢訓(xùn)練一系列相同的分類器,而分類器中置信度低的樣本區(qū)域塊被判斷為前景。m.seki提出了出一種基于圖像在空間上變化一致的背景建模方法,認(rèn)為相鄰區(qū)域塊之間的變化有很強(qiáng)的相關(guān)性;方法在不要求背景圖像在時間上連續(xù)的前提下,動態(tài)縮小每個輸入圖像背景的變化范圍,提高算法的檢測率。reddyv提出一種基于概率決策級聯(lián)分類器的前景檢測方法,該方法獲取樣本區(qū)域的dct系數(shù)作為區(qū)域的特征表示,在此特征上建立一個單高斯背景模型,最后通過多個概率決策級聯(lián)分類器確定該區(qū)域的類型。
針對以上的研究現(xiàn)狀,目前基于區(qū)域塊的背景建模方法存在的問題是:
(1)基于區(qū)域塊的方法在區(qū)域的特征提取方面不夠完善;
(2)沒有詳細(xì)對區(qū)域塊內(nèi)的中心像素進(jìn)行分析,在檢測率和正確率方面并沒有到達(dá)很好的結(jié)果。
技術(shù)實(shí)現(xiàn)要素:
為了解決上述技術(shù)問題,本發(fā)明提供了一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法。
本發(fā)明所采用的技術(shù)方案是:一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法,其特征在于,包括以下步驟:
步驟1:利用第一幀圖像初始化混合高斯背景模型;
步驟2:讀取視頻中圖像序列,獲取當(dāng)前視頻幀;
步驟3:將視頻幀劃分為若干區(qū)域;
步驟4:將各區(qū)域塊送入到自編碼卷積神經(jīng)網(wǎng)絡(luò)中獲取對應(yīng)的卷積特征;
步驟5:對得到的卷積特征進(jìn)行池化操作,得到圖像最后的特征表示;
步驟6:利用自適應(yīng)區(qū)域判斷法判斷區(qū)域類型;
若區(qū)域類型為背景區(qū)域,則標(biāo)記區(qū)域中心像素為背景像素,更新該中心像素對應(yīng)的混合高斯背景模型中的各個高斯模型參數(shù);并執(zhí)行下述步驟7;
若區(qū)域類型為前景區(qū)域,則標(biāo)記區(qū)域中心像素為前景像素,添加新的高斯背景模型到混合高斯背景模型中,并執(zhí)行下述步驟7;
若區(qū)域類型為邊緣區(qū)域,則利用邊緣區(qū)域中心像素判斷法進(jìn)行判斷,若屬于背景像素,則標(biāo)記為背景像素;若屬于前景像素,則標(biāo)記為前景像素;并執(zhí)行下述步驟7;
步驟7:通過各像素的判斷結(jié)果,得到視頻幀中的運(yùn)動目標(biāo)檢測結(jié)果。
本發(fā)明相比已有基于區(qū)域塊的背景建模方法的不足做出以下改進(jìn):
(1)針對已有基于區(qū)域塊背景建模方法中以離散余弦變換(dct)系數(shù)描述作為區(qū)域特性表示方面的不足,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(cnn)區(qū)域特征提取的方法;并用區(qū)域塊經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)提取得到的卷積特征對各個區(qū)域建立相對應(yīng)的混合高斯背景模型,實(shí)現(xiàn)連續(xù)視頻幀中的運(yùn)動目標(biāo)檢測;
(2)針對現(xiàn)有的基于區(qū)域塊背景建模方法中以區(qū)域類型武斷地判斷區(qū)域中心像素類型的不足,提出一種基于區(qū)域變化速率的自適應(yīng)區(qū)域類型判斷方法,利用自適應(yīng)區(qū)域類型判斷方法檢測出邊緣區(qū)域之后,結(jié)合邊緣區(qū)域中心像素與其臨近像素的關(guān)系,提出一種邊緣區(qū)域中心像素類型的判斷方法。
附圖說明
圖1為本發(fā)明實(shí)施例的流程圖;
圖2為本發(fā)明實(shí)施例的基于卷積神經(jīng)網(wǎng)絡(luò)的區(qū)域特征表示示意圖;
圖3為本發(fā)明實(shí)施例的兩種特征的結(jié)果對比示意圖,從左到右分別是原圖、groundtruth、dct結(jié)果、本發(fā)明的卷積特征結(jié)果示意圖;
圖4為本發(fā)明實(shí)施例的三種區(qū)域類型示意圖,從左到右分別是背景區(qū)域、邊緣區(qū)域和前景區(qū)域示意圖;
圖5為本發(fā)明實(shí)施例的數(shù)據(jù)集li上的實(shí)驗結(jié)果示意圖,從上到下分別是針對不同場景下的數(shù)據(jù)處理示意圖,從左到右分別是原圖、groundtruth和本發(fā)明采用的方法處理得到的結(jié)果示意圖;
圖6為本發(fā)明實(shí)施例的cdnet2014數(shù)據(jù)集上的實(shí)驗結(jié)果示意圖,從上到下的視頻序列分別是backdoor、diningroom、highway、streetlight、turnpike-0.5fps,從左到右分別是原始圖像,rmog方法的結(jié)果,第三列為本發(fā)明方法的結(jié)果;
圖7為本發(fā)明實(shí)施例的自有數(shù)據(jù)集上的實(shí)驗效果示意圖,從左到右分別是原圖、mog方法的實(shí)驗結(jié)果、本發(fā)明方法的實(shí)驗結(jié)果。
具體實(shí)施方式
為了便于本領(lǐng)域普通技術(shù)人員理解和實(shí)施本發(fā)明,下面結(jié)合附圖及實(shí)施例對本發(fā)明作進(jìn)一步的詳細(xì)描述,應(yīng)當(dāng)理解,此處所描述的實(shí)施示例僅用于說明和解釋本發(fā)明,并不用于限定本發(fā)明。
請見圖1,本發(fā)明提供的一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法,包括以下步驟:
步驟1:利用第一幀圖像初始化混合高斯背景模型;
混合高斯模型可以看做是一種利用多個高斯分布來表示的一種函數(shù),這個函數(shù)的輸入是卷積神經(jīng)網(wǎng)絡(luò)提取的中心像素周圍的區(qū)域得到的特征,函數(shù)的輸出是判斷該像素是屬于前景區(qū)域還是背景區(qū)域還是邊緣區(qū)域的概率;下面是對混合高斯背景模型的概念介紹:
混合高斯模型概念介紹:
混合高斯模型是由多個高斯背景模型組成的一個函數(shù),而高斯背景模型其含義就是一個正態(tài)分布
多個高斯模型意思就是,輸入特征值到多個參數(shù)不同的高斯模型(如均值參數(shù)、方差參數(shù)不同),每個高斯函數(shù)都會對該輸入特征值輸出一個對應(yīng)的所屬類型以及其概率。例如混合高斯模型由三個高斯模型組成,這三個高斯模型分別輸出,前景(類型)-0.9(概率)、前景(類型)-0.3(概率)、前景(類型)-0.7(概率)。根據(jù)輸出的概率乘以各個高斯模型相應(yīng)的權(quán)重即可得到混合高斯模型對該特征的所屬類型判斷概率。例如三個高斯模型權(quán)重分別為0.5、0.3、0.2則可得到該特征值對應(yīng)的前景概率為:
0.5*0.9+0.3*0.3+0.2*0.7=0.68;
使用第一幀圖像初始化混合高斯模型方式介紹:
在輸入各個像素所對應(yīng)的區(qū)域塊到卷積神經(jīng)網(wǎng)絡(luò)中后,卷積神經(jīng)網(wǎng)絡(luò)提取各個區(qū)域特征,各個區(qū)域的特征表示為:
其中,參數(shù)“t”表示視頻中第t幀圖像,用“ft”表示視頻中第t幀圖像中所有經(jīng)過劃分的圖像塊的特征表示;
其中參數(shù)
其中,參數(shù)“t”表示視頻中第t幀圖像,
例如,對于第一幀圖像it的單獨(dú)的區(qū)域
上式中除了“i”的所有參數(shù)前面都已介紹,“i”是指當(dāng)前第一幀圖像數(shù)據(jù)的像素值。這三個式子表達(dá)了統(tǒng)一對所有的單高斯模型進(jìn)行相同的初始化,均值、方差以及權(quán)重全部相同。
對于第t時刻圖像it的每個區(qū)域
步驟2:讀取視頻中圖像序列,獲取當(dāng)前視頻幀;
步驟3:將視頻幀劃分為若干區(qū)域;
步驟4:將各區(qū)域塊送入到自編碼卷積神經(jīng)網(wǎng)絡(luò)中獲取對應(yīng)的卷積特征;
步驟5:對得到的卷積特征進(jìn)行池化操作,得到圖像最后的特征表示;
步驟6:利用自適應(yīng)區(qū)域判斷法判斷區(qū)域類型;
若區(qū)域類型為背景區(qū)域,則標(biāo)記區(qū)域中心像素為背景像素,更新該中心像素對應(yīng)的混合高斯背景模型中的各個高斯模型參數(shù);并執(zhí)行下述步驟7;(混合高斯背景模型,實(shí)驗中每個區(qū)域?qū)?yīng)一個混合高斯背景模型,每個混合高斯模型對應(yīng)三到五個高斯模型)
若區(qū)域類型為前景區(qū)域,則標(biāo)記區(qū)域中心像素為前景像素,添加新的高斯背景模型到混合高斯背景模型中,并執(zhí)行下述步驟7;
若區(qū)域類型為邊緣區(qū)域,則利用邊緣區(qū)域中心像素判斷法進(jìn)行判斷,若屬于背景像素,則標(biāo)記為背景像素;若屬于前景像素,則標(biāo)記為前景像素;并執(zhí)行下述步驟7;
更新該中心像素對應(yīng)的混合高斯背景模型中的各個高斯模型參數(shù),以下詳細(xì)介紹具體更新過程:對于第t時刻圖像it的每個區(qū)域
上式中參數(shù)前面都有介紹,
其中d表示特征
其中ε是一個固定的值,表示特征
要求尋找到
上面學(xué)習(xí)速率α表示模型對外界新變化的學(xué)習(xí)速度快慢,若α過小,則需要經(jīng)過很多幀才會認(rèn)為該變化屬于背景模型;若α過大,僅僅需要幾幀就會認(rèn)為該變化屬于背景模型;因根據(jù)背景的特性,選擇合適大小的學(xué)習(xí)速率α。學(xué)習(xí)速率ρ表示參數(shù)學(xué)習(xí)的速度,可以直接計算得到,對應(yīng)高斯模型色權(quán)值越小,參數(shù)的學(xué)習(xí)速度越快。
步驟7:通過各像素的判斷結(jié)果,得到視頻幀中的運(yùn)動目標(biāo)檢測結(jié)果。
本發(fā)明主要包括卷積神經(jīng)網(wǎng)絡(luò)的特征提取方法、自適應(yīng)區(qū)域判斷兩個方面的內(nèi)容。
(1)基于卷積神經(jīng)網(wǎng)絡(luò)的區(qū)域特征提取方法;
與已有基于區(qū)域塊背景建模方法中以離散余弦變換(dct)系數(shù)描述提取區(qū)域特征不同,本發(fā)明采用基于卷積神經(jīng)網(wǎng)絡(luò)的區(qū)域特征提取方法,該卷積神經(jīng)網(wǎng)絡(luò)是以自編碼神經(jīng)網(wǎng)絡(luò)以及卷積池化操作為基礎(chǔ)而建立的模型。整個模型對自編碼神經(jīng)網(wǎng)絡(luò)提取的特征進(jìn)行一次卷積操作和一次池化操作,最后得到區(qū)域的特征表示。具體來說將分辨率為m*n大小的圖像區(qū)域劃分成若干個areasize*areasize小的區(qū)域,把這些小的區(qū)域送到自編碼神經(jīng)網(wǎng)絡(luò)中,就可以獲得圖像區(qū)域的卷積特征。然后對得到的卷積特征進(jìn)行池化操作就可以得到圖像最后的特征表示,下面分別針對卷積神經(jīng)網(wǎng)絡(luò)所涉及到的自編碼神經(jīng)網(wǎng)絡(luò)的參數(shù)訓(xùn)練以及最后的區(qū)域特征表示兩個方面,來描述區(qū)域特征提取的具體步驟。
對areasize*areasize大小圖像區(qū)域提取區(qū)域特征之前,需要訓(xùn)練好自編碼神經(jīng)網(wǎng)絡(luò)的參數(shù),自編碼神經(jīng)網(wǎng)絡(luò)輸入大小與所選擇的卷積大小是一致的。
areasize*areasize為算法涉及到的卷積神經(jīng)網(wǎng)絡(luò)輸入?yún)^(qū)域大小,采用卷積大小為convolvedsize*convolvedsize,池化大小為pooledsize*pooledsize。
本發(fā)明采用無監(jiān)督的學(xué)習(xí)方法進(jìn)行自編碼神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,不要求有標(biāo)簽的樣本數(shù)據(jù)。僅需要給出滿足要求的訓(xùn)練樣本,即可以訓(xùn)練好對應(yīng)的各個參數(shù)。對于每個目標(biāo)視頻,可以按固定間隔取出若干幀圖像。對于每張取出的圖像,從中按取出若干個大小為convolvedsize*convolvedsize的不重疊圖像樣本塊。以取出的若干個大小為convolvedsize*convolvedsize的圖像樣本塊作為訓(xùn)練樣本,既可以訓(xùn)練好網(wǎng)絡(luò)的參數(shù)。假如目標(biāo)視頻有n幀,為了避免相鄰幀之間區(qū)域的重復(fù)性,可以每隔k幀(k取值視具體情況而定,只要最后能取得足夠的樣本數(shù)量即可)取一張圖像作為訓(xùn)練樣本來源。假如目標(biāo)視頻有1200幀,則每隔10幀取一張圖像,一共取120張圖像。每一張圖像劃分為若干個convolvedsize*convolvedsize大小的不重疊區(qū)域作為訓(xùn)練樣本,假如圖像大小為m*n,則可以劃分為[n/aeasize]*[m/aeasize]個convolvedsize*convolvedsize大小的圖像樣本塊。通過獲取的樣本,利用反向轉(zhuǎn)播算法訓(xùn)練好自編碼神經(jīng)網(wǎng)絡(luò)的參數(shù)之后,就可以進(jìn)行區(qū)域的特征提取。利用訓(xùn)練好的模型,把a(bǔ)reasize*areasize大小的區(qū)域塊送到卷積神經(jīng)網(wǎng)絡(luò)中,既可以得到其對應(yīng)的特征表示。如圖2所示,假定輸入圖像塊大小為9*9,所采用卷積大小為4*4,池化大小為3*3,那么結(jié)合自編碼神經(jīng)網(wǎng)絡(luò)進(jìn)行卷積操作后的卷積特征大小為6*6。然后對得到的卷積特征作池化操作,得到的池化特征大小為2*2,令自編碼神經(jīng)網(wǎng)絡(luò)中隱藏神經(jīng)元的個數(shù)為63,則最后的區(qū)域塊特征維數(shù)為63*2*2*252。
對圖像區(qū)域塊的特征提取進(jìn)行更一般的表述,設(shè)自編碼神經(jīng)網(wǎng)絡(luò)隱藏層的節(jié)點(diǎn)個數(shù)為hiddensize,輸入圖像區(qū)域塊經(jīng)過卷積之后的特征大小為(areasize*convolvedsize*1)*(areasize*convolvedsize*1),經(jīng)過池化后特征大小為((areasize*convolvedsize*1)/pooledsize)*((areasize*convolvedsize*1)/pooledsize)。由于最后的池化特征大小必須是整數(shù),所以要求卷積之后的尺寸(areasize*convolvedsize*1)是池化大小pooledsize的整數(shù)倍。
針對所要處理的視頻中的每張分辨率大小為m*n的圖片數(shù)據(jù),進(jìn)行擴(kuò)展之后的大小為(m+2*[areasize/2])*(n+2*[areasize/2]),因此原圖中每個像素都對應(yīng)一個areasize*areasize大小的區(qū)域塊。經(jīng)過擴(kuò)展之后的圖像劃分為若干個區(qū)域塊為:
上式中at表示視頻中第t張圖片所有經(jīng)過劃分的圖像塊,
上式中,ft表示圖像中所有經(jīng)過劃分的圖像塊的特征表示;
將圖像區(qū)域塊
上式中
使用本發(fā)明所采用的卷積神經(jīng)網(wǎng)絡(luò)提取得到的圖片中各個區(qū)域的特征代入到該公式隨后進(jìn)行一般的混合高斯背景建模流程操作。混合高斯背景建?;趯D片進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)提取得到的特征判斷圖片中屬于背景像素的部分,或者為前景像素。至此達(dá)到通過基于卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片特征提取,將特征輸入混合高斯模型中進(jìn)行背景建模的目的;
不同于已有的基于dct系數(shù)的區(qū)域塊特征描述方法,本發(fā)明采用區(qū)域卷積特征建立混合高斯背景模型。下面給出相關(guān)實(shí)驗結(jié)果的對比分析,如圖3所示。
(2)自適應(yīng)區(qū)域判斷方法判斷區(qū)域類型;
接著上一步通過卷積神經(jīng)網(wǎng)絡(luò)提取圖片區(qū)域塊特征進(jìn)行混合高斯背景建模操作,由于混合高斯背景建模對區(qū)域所代表的像素判斷為前景區(qū)域或背景區(qū)域時會存在一些難以分辨的情況,即該區(qū)域中既有前景像素又有背景像素時我們稱之為邊緣區(qū)域,如下圖4所示,左邊的圖中,前景像素的個數(shù)較小,所占的比例在1/3左右;中間的圖中,前景像素的個數(shù)適中,所占的比例在1/2左右;右邊的圖中,前景像素的個數(shù)較多,所占的比例在2/3左右。對于第一種情況,對該區(qū)域進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)特征提取、混合高斯建模判定其為背景區(qū)域,該區(qū)域所對應(yīng)的中心像素是背景像素。對于第二種情況,本發(fā)明認(rèn)為該區(qū)域為邊緣區(qū)域,所對應(yīng)的中心像素的類型需要通過自適應(yīng)區(qū)域判斷方法判斷區(qū)域類型才能得到,這也是本發(fā)明做出的第二點(diǎn)創(chuàng)新。對于第三種情況,對該區(qū)域進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)特征提取、混合高斯建模判定其為前景區(qū)域,該區(qū)域所對應(yīng)的中心像素是前景像素。針對邊緣區(qū)域情況我們提出一種自適應(yīng)區(qū)域判斷方法判斷區(qū)域類型來判斷邊緣區(qū)域所對應(yīng)的像素是屬于背景還是前景;
對邊緣區(qū)域的中心像素進(jìn)行額外的判斷,主要結(jié)合基于中心像素在區(qū)域中的相鄰像素的類型,能夠較好確定中心像素的類型。下面詳細(xì)介紹利用相鄰像素間的關(guān)系判斷邊緣區(qū)域?qū)?yīng)中心像素類型的方法。具體說來,獲取待處理區(qū)域ai,j中心像素pi,j,以該像素為中心,在原圖中取大小為m*m的區(qū)域作為模板區(qū)域。獲取中心像素pi,j對應(yīng)模板區(qū)域內(nèi)的各個像素,并把模板區(qū)域內(nèi)的各像素劃分成兩類:
上式表示區(qū)域內(nèi)各像素值與中心像素值是否接近,η是判斷兩像素值之間是否接近的一個閾值(是一個可調(diào)節(jié)變量)。如果兩個像素值pi,j和px,y之間的差異小于η,則認(rèn)為兩個像素是相似的,記為close(pi,j,px,y)=1;反之則記為
close(pi,j,px,y)=0;
對模板區(qū)域內(nèi)各個像素與中心像素關(guān)系判斷完成后,獲得與中心像素值接近的像素總數(shù):
基于以上規(guī)則計算區(qū)域內(nèi)與中心像素相似的像素數(shù)量計算,獲取相似像素值的個數(shù)之后,在相近像素值中判斷屬于背景像素的個數(shù):
px,y表示該像素屬于背景像素類型,由此得到區(qū)域中與中心像素相似的像素中,屬于背景像素的個數(shù);然后通過以下式子比較b和s判斷中心像素屬于背景或前景:
上式表示判斷模板區(qū)域內(nèi)相近像素中是否超過一半的像素為背景像素,超過一半則認(rèn)為像素pi,j屬于背景像素,不超過一半則認(rèn)為像素pi,j屬于前景像素。
為了驗證本發(fā)明的有效性,在兩個公共數(shù)據(jù)集以及一個自有數(shù)據(jù)集上進(jìn)行測試,分別包括li、cdnet2014和yangtze-boat數(shù)據(jù)集。三個數(shù)據(jù)集中都提供若干組視頻序列,視頻序列分別涉及背景建?,F(xiàn)在所面臨的各種挑戰(zhàn)性問題,例如光照變化、動態(tài)背景、陰影等。由于篇幅限制,這里列舉了本發(fā)明與其他方法在公有數(shù)據(jù)集中的一部分對比結(jié)果進(jìn)行展示,在定量的對比分析時,用公認(rèn)的f-score作為評價標(biāo)準(zhǔn),來衡量算法的優(yōu)劣。在公共數(shù)據(jù)集li上,將數(shù)據(jù)集的正確標(biāo)注groundtruth與本發(fā)明的方法處理數(shù)據(jù)集所得的結(jié)果進(jìn)行比較,選取了以下光照變化問題的視頻序列ws、涉及移動窗簾動態(tài)背景問題的視頻序列mr、涉及陰影問題的視頻序列ft、涉及搖晃樹葉動態(tài)背景問題的視頻序列cam上的對比結(jié)果,對相關(guān)的實(shí)驗結(jié)果給出定性和定量的分析如圖5和表1所示。在公共數(shù)據(jù)集cdnet2014上,利用數(shù)據(jù)集官網(wǎng)上給出的rmog方法的實(shí)驗結(jié)果,與本發(fā)明的方法進(jìn)行定性的對比分析,如圖6所示,第一列為原始圖像,第二列為rmog方法的結(jié)果,第三列為本發(fā)明方法的結(jié)果。相對于rmog方法的實(shí)驗結(jié)果,本發(fā)明的方法成功檢測出前景的大部分像素,取得較好的實(shí)驗效果。在自有數(shù)據(jù)集yangtze-boat上,如圖7所示,本發(fā)明所采用方法與傳統(tǒng)的mog方法進(jìn)行定性對比分析。由于mog方法對單獨(dú)像素的變化十分敏感,由此造成水面上的錯誤前景像素點(diǎn)較多。而本發(fā)明的方法對單個區(qū)域塊的變化十分敏感,這樣可以充分把像素空間上的特性考慮在內(nèi)。例如第二和第三組視頻中,對于單個像素變化不大的船身,mog方法無法檢測出類似的像素點(diǎn),使之被錯誤檢測為背景像素,而本發(fā)明的方法能正確把類似像素成功檢測為前景像素點(diǎn)。在yangtze-boat數(shù)據(jù)集中三組視頻數(shù)據(jù)上,與mog方法的實(shí)驗結(jié)果對比,可以發(fā)現(xiàn)本發(fā)明的方法在前景檢測方面取得較好的實(shí)驗結(jié)果。
表1f-score標(biāo)準(zhǔn)下各種方法的定量對比分析
應(yīng)當(dāng)理解的是,本說明書未詳細(xì)闡述的部分均屬于現(xiàn)有技術(shù)。
應(yīng)當(dāng)理解的是,上述針對較佳實(shí)施例的描述較為詳細(xì),并不能因此而認(rèn)為是對本發(fā)明專利保護(hù)范圍的限制,本領(lǐng)域的普通技術(shù)人員在本發(fā)明的啟示下,在不脫離本發(fā)明權(quán)利要求所保護(hù)的范圍情況下,還可以做出替換或變形,均落入本發(fā)明的保護(hù)范圍之內(nèi),本發(fā)明的請求保護(hù)范圍應(yīng)以所附權(quán)利要求為準(zhǔn)。