国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于衛(wèi)星影像的無人機影像快速概略拼接方法

      文檔序號:9788118閱讀:746來源:國知局
      一種基于衛(wèi)星影像的無人機影像快速概略拼接方法
      【技術領域】
      [0001] 本發(fā)明涉及航空攝影測量技術領域,具體涉及一種基于衛(wèi)星影像的無人機影像快 速概略拼接方法。
      【背景技術】
      [0002] 無人機遙感是一種低成本、高靈活度的遙感手段,已經被廣泛應用于工程勘察、城 市規(guī)劃、災害監(jiān)測和土地利用調查等方面,有效彌補了衛(wèi)星影像分辨率低、重訪周期長的缺 點。目前針對無人機影像拼接的方法主要有:基于P〇S(position and orientation system,定位定姿系統(tǒng))數(shù)據(jù)的拼接和基于特征的拼接。但是基于P0S數(shù)據(jù)的拼接必須有POS 數(shù)據(jù)的支持,目前多數(shù)無人機無法攜帶精確的P0S系統(tǒng),尚不具備應用條件;基于特征的拼 接耗時長,且受影像的成像質量影響較大。
      [0003] 基于特征的無人機影像快速拼接方法是目前研究的重要方向,其主要有兩種實現(xiàn) 路徑:一是對所有無人機影像提取特征點,對任意兩張影像進行特征點的匹配,進而完成影 像間的拼接;二是針對連續(xù)的無人機影像,僅對一張影像周圍的少數(shù)影像進行特征點的匹 配。路徑一可以適用于雜亂無序的無人機影像,但是由于特征點描述子具有較高的維度,任 意的兩兩匹配使計算效率較低。路徑二需要連續(xù)的無人機影像,針對補拍或漏拍等情況不 具有適應性,會造成計算失敗。

      【發(fā)明內容】

      [0004] 本發(fā)明的目的在于克服現(xiàn)有技術的缺陷,提供一種基于衛(wèi)星影像的無人機影像快 速概略拼接方法,無需連續(xù)的無人機影像,其計算效率高、速度快、適用廣,拼接精度能夠滿 足影像后續(xù)處理的要求。
      [0005] 為了解決上述現(xiàn)有技術的技術問題,本發(fā)明采用以下技術方案。
      [0006] -種基于衛(wèi)星影像的無人機影像快速概略拼接方法,其特征在于,包括如下步驟:
      [0007] 步驟1、使用無人機機載數(shù)碼相機對地面進行近似垂直攝影,獲取航攝區(qū)域的地面 場景的無人機影像;通過網(wǎng)絡獲取航攝區(qū)域的衛(wèi)星影像,用作無人機影像概略拼接的底圖; 通過獲取所述相機像元尺寸、鏡頭焦距以及飛行航高信息,計算得到無人機影像的航攝區(qū) 域的地面分辨率;
      [0008] 步驟2、影像預處理,包括影像降采樣和雙邊濾波:用衛(wèi)星影像地面分辨率與無人 機影像地面分辨率的比值,作為無人機影像的降采樣比例,對無人機影像進行降采樣,使其 與衛(wèi)星影像具有近似相同的地面分辨率;并且,用濾波器對無人機影像和衛(wèi)星影像進行雙 邊濾波;
      [0009] 步驟3、利用降尺度空間的SURF算法對無人機影像和衛(wèi)星影像進行特征點的提取: 由于無人機影像和衛(wèi)星影像具有近似相同的地面分辨率,所以僅需選用少量濾波器模板參 與特征點提取的計算;
      [0010] 步驟4、進行歐氏距離匹配,并用模板匹配輔助優(yōu)選匹配點:利用歐氏距離對無人 機影像和衛(wèi)星影像的兩幅圖像中的特征點進行匹配,利用特征點主方向對衛(wèi)星影像進行旋 轉,消除影像間的旋角;然后在此基礎上,利用基于標準平方差的模板匹配方法加以輔助, 剔除誤差較大的匹配點,計算得到一對最優(yōu)匹配特征點;
      [0011]步驟5、在所述的SURF算法中,提取的特征點具有坐標、尺度和方向等信息,利用所 述的一對最優(yōu)匹配特征點的像片坐標、尺度和方向信息,構建相似變換矩陣R,其矩陣計算 公式如下:
      [0013]其中,S表示兩特征點尺度比值,Θ表示兩特征點主方向之間旋角,dx和dy分別表示 兩特征點在X方向和y方向的像片坐標之間的差;
      [0014]以無人機影像的左上角為坐標原點,計算出該影像的四個頂點坐標,通過相似變 換矩陣求得所述四個頂點坐標在衛(wèi)星影像中的坐標(V 得到無人機影像的概略位置:
      [0016]其中,R為相似變換矩陣,(X,y)為無人機影像中的四個頂點坐標;
      [0017] 步驟6、將航攝區(qū)域內的所有無人機影像對衛(wèi)星影像進行配準,即可得到無人機影 像之間的方位信息,從而完成無人機影像的概略拼接。
      [0018] 在所述步驟1中,利用以下計算公式獲取無人機影像的地面分辨率:
      [0020] 其中,GSD為地面分辨率,單位是m,a為相機像元尺寸,單位是mm,H為攝影航高,單 位是m,f為攝影鏡頭焦距,單位是mm。
      [0021] 在所述步驟2中,所述的影像降采樣,是指用衛(wèi)星影像地面分辨率與無人機影像地 面分辨率的比值,作為無人機影像的降采樣比例,對無人機影像進行降采樣,從而使其無人 機影像與衛(wèi)星影像具有近似相同的地面分辨率;
      [0022] 所述的雙邊濾波,是指對無人機影像和衛(wèi)星影像進行雙邊濾波;雙邊濾波器不僅 考慮像素點鄰域的灰度相似關系,還需考慮像素點空間的鄰近關系。
      [0023]在所述步驟3中,所述的利用降尺度空間的SURF算法對無人機和衛(wèi)星影像進行特 征點的提取,是指在使用SURF算法進行特征點檢測的過程中,為了保持特征點的尺度不變 性,需要構建多組、每組多層尺度空間分別提取特征點,即使引入盒狀濾波器仍然需要較大 的計算量,所以僅選用少量濾波器模板構建尺度空間,進而提取特征點。
      [0024]所述步驟4的具體過程為:
      [0025] (4-1)所述的利用歐氏距離對無人機影像和衛(wèi)星影像的兩幅圖像中的特征點進行 匹配,其歐氏距離的計算公式如下:
      [0027]其中,d為歐氏距離,m表示無人機影像的一幅圖像,η表示衛(wèi)星影像的一幅圖像,F(xiàn)m 和Fn*別表示m和η兩幅圖像上的某個特征點的描述子,k表示特征點描述子所具有的維度, 和分別表示m和η兩幅圖像上的第i維向量的長度。
      [0028] (4-2)如果最近距離比次近距離小于閾值,其中缺省值取0.7,則認為最近距離的 兩個特征點為一對匹配點,然后將所述的最近距離的兩個特征點及其最近距離與次近距離 的比進行記錄,并按照所述的距離比從小到大的原則,對匹配點進行排序;
      [0029] (4-3)從上述排序的匹配點序列中按順序依次取匹配點,計算兩匹配點主方向之 間的旋角,對衛(wèi)星影像進行旋轉,消除兩張影像之間的旋角;取特征點周圍NXN像素的鄰 域,其中N取特征點尺度的5倍;采用標準平方差法進行模板匹配,并記錄下平方差系數(shù),該 平方差系數(shù)越小,說明圖像的相似度越高;標準平方差系數(shù)R的計算公式如下:
      [0031] 其中,T表示模板圖像,I表示原始圖像,X' 表示模板圖像中的坐標,x、y表示模 板圖像的移動步長;重復上述(4-3)過程,從匹配點序列中選取標準平方差最小的匹配點作 為最優(yōu)匹配點。
      [0032] 與現(xiàn)有技術相比,本發(fā)明包括以下優(yōu)點和有益效果:
      [0033] 1.本發(fā)明的一種基于衛(wèi)星影像的無人機影像快速概略拼接方法,是基于特征的無 人機影像快速拼接的一種改進方法,很好地克服了前述兩種基于特征拼接方法的缺點。該 方法以衛(wèi)星影像作為拼接底圖,經過一定的影像預處理,利用降尺度空間的SURF算法,并結 合基于標準平方差的模板匹配方法,是一種快速的、高適用性的無人機影像概略拼接方法。 [0034] 2.本發(fā)明不需要連續(xù)的無人機影像,能夠適用于補拍或漏拍等情況。
      [0035] 3.無需P0S數(shù)據(jù)的支持且能夠滿足無人機影像后續(xù)處理的精度要求,而且速度快、 耗時短,擁有更廣泛的應用范圍。
      [0036] 4.本方法降低了SURF(Speeded Up Robust Features)算法的尺度不變性,減少特 征提取的尺度圖層,使特征點的數(shù)目減少,加快了計算速度。
      [0037] 5.本發(fā)明的實現(xiàn)過程完全是從算法底層開發(fā),未使用Op
      當前第1頁1 2 3 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1