利用Kinect實現(xiàn)三維建模和全息顯示的方法及系統(tǒng)的制作方法
【專利摘要】本發(fā)明提供了一種利用Kinect實現(xiàn)三維建模和全息顯示的方法及系統(tǒng),其中方法包括:通過一Kinect的傳感器于四個不同方向采集被測物體的彩色圖像和深度圖像;對采集的四個面的彩色圖像和深度圖像進行處理,獲得所述被測物體的三維模型;對所述三維模型中的四個面的圖像進行深度處理,使該四個面的圖像能顯示在同一屏幕的四個區(qū)域;將四個區(qū)域的圖像分別投影到一全息金字塔的四個面上,得到所述被測物體的全息影像。本發(fā)明通過Kinect對被測物體進行數(shù)據(jù)采集、三維建模和對頭部進行定位,根據(jù)用戶頭部位置自動調(diào)節(jié)三維模型的角度,從而使得達到被測物體的全息投影適應于用戶所在的位置,提升了用戶的使用體驗。
【專利說明】
利用Ki nect實現(xiàn)三維建模和全息顯示的方法及系統(tǒng)
技術領域
[0001]本發(fā)明涉及三維建模和全息顯示技術領域,尤其涉及一種利用Kinect實現(xiàn)三維建模和全息顯示的方法及系統(tǒng)。
【背景技術】
[0002]目前,三維模型的重建和全息顯示的方法已經(jīng)成為研究熱點。全息學(Holography)自20世紀60年代激光器問世后得到了迅速的發(fā)展。其基本機理是利用光波干涉法同時記錄物光波的振幅與相位。全息顯示以其顯示信息真實豐富的優(yōu)點受到人們的廣泛關注。在一些行業(yè)和領域中,全息顯示給工程師們帶來了的高效便捷且真實的顯示方式。例如,在工業(yè)設計中,機械設計師往往希望能夠全息呈現(xiàn)自己的設計方案以便優(yōu)化設計;在博物館展覽中,有些損毀的文物會通過計算機合成的方式得到三維模型,并且可以通過全息顯示的方式立體直觀的地展現(xiàn)文物。全息顯示包括多種方法,比如透射式全息、反射式全息、像面式全息、彩虹式全息、合成式全息、模壓式全息以及計算機全息,特別是計算機全息顯示圖像CGH(ComputerGenerated Hologram),這種方法既可完全節(jié)省光源及要求相當精密的光路設置,又能模擬實際上并不存在的各種物體,故具有明顯的簡易性與靈活性。
[0003]Kinect是微軟推出的一款體感傳感器,它具有采集彩色圖像、深度圖像、紅外圖像、骨骼識別等功能。目前,Kinect二代采用T0F(Time of Flying,飛行時間)方法計算深度信息,并利用數(shù)字處理方法得到準確的三維模型。Kinect的攝像頭可以捕捉人體動作,并對捕捉到的人體動作進行分析。
[0004]但是,現(xiàn)有的全息顯示方法,不僅需要人工操作三維掃描儀,而且還需要人工調(diào)整全息圖像顯示角度,不僅成本高昂,而且系統(tǒng)操作復雜,也不能很好地利用Kinect來實現(xiàn)三維建模和全息顯示,損害了用戶的使用體驗。
【發(fā)明內(nèi)容】
[0005]針對現(xiàn)有的技術存在的上述問題,現(xiàn)提供一種利用Kinect實現(xiàn)三維建模和全息顯示的方法及系統(tǒng)的技術方案,具體如下:
[0006]一種利用Kinect實現(xiàn)三維建模和全息顯示的方法,其中,包括:
[0007]步驟SI,通過一Kinect的傳感器于四個不同方向采集被測物體的彩色圖像和深度圖像,所述被測物體置于一旋轉云臺上;
[0008]步驟S2,對采集的四個面的彩色圖像和深度圖像進行處理以將兩種圖像統(tǒng)一到同一坐標系下,獲得所述被測物體的三維模型;
[0009]步驟S3,對所述三維模型中的四個面的圖像進行深度處理,使該四個面的圖像能顯示在同一屏幕的四個區(qū)域;
[0010]步驟S4,將四個區(qū)域的圖像分別投影到一全息金字塔的四個面上,得到所述被測物體的全息影像。
[0011]優(yōu)選的,所述方法還包括:
[0012]步驟S5,使用Kinect的攝像頭的骨骼跟蹤引擎對用戶頭部進行骨骼跟蹤,得到用戶的頭部位置信息;
[0013]步驟S6,根據(jù)所述用戶的頭部位置信息調(diào)整顯示在屏幕上的四個圖像的大小和位置,以根據(jù)用戶的頭部位置動態(tài)調(diào)整全息圖像。
[0014]優(yōu)選的,所述用戶的頭部位置信息包括:
[0015]所述用戶頭部與所述屏幕之間的水平距離;以及
[0016]所述用戶頭部相對于所述屏幕的中心點的角度。
[0017]優(yōu)選的,所述步驟S2中,對采集的四個面的彩色圖像和深度圖像進行處理包括進行圖像配準、背景分割、平滑處理和點云配準。
[0018]優(yōu)選的,對采集的四個面的彩色圖像和深度圖像進行點云配準包括:
[0019]步驟Al,分別將采集的每個面的彩色圖像和深度圖像的點云在同一坐標下進行比較,判斷是否存在相同點云:
[0020]如是,則轉至步驟A2;
[0021]如否,則對進行比較的彩色圖像和深度圖像進行邊緣拼接,得到拼接后的圖像;
[0022]步驟A2,計算每個相同點云的歐氏距離的方差;
[0023]步驟A3,判斷所述方差是否達到一預設值:
[0024]如是,則對相同點云進行覆蓋,得到拼接后的圖像;
[0025]如否,則轉至步驟A2。
[0026]優(yōu)選的,所述步驟S3中,對所述三維模型中的四個面的圖像進行深度處理包括進行圖像細節(jié)增強、坐標變換和角度調(diào)整。
[0027]優(yōu)選的,所述全息金字塔的頂端位于屏幕的中心點。
[0028]優(yōu)選的,所述三維模型以obj文件的形式進行存儲。
[0029]優(yōu)選的,所述被測物體每旋轉90°,所述Kinect的傳感器采集一次所述被測物體的彩色圖像和深度圖像。
[0030]本發(fā)明還提供一種利用Kinect實現(xiàn)三維建模和全息顯示的系統(tǒng),其中,包括:
[0031]采集模塊,用于通過一Kinect的傳感器于四個不同方向采集被測物體的彩色圖像和深度圖像,所述被測物體置于一旋轉云臺上;
[0032]第一處理模塊,連接所述采集模塊,用于對采集的四個面的彩色圖像和深度圖像進行處理以將兩種圖像統(tǒng)一到同一坐標系下,獲得所述被測物體的三維模型;
[0033]第二處理模塊,連接所述第一處理模塊,用于對所述三維模型中的四個面的圖像進行深度處理,使該四個面的圖像能顯示在同一屏幕的四個區(qū)域;
[0034]投影模塊,連接所述第二處理模塊,用于將四個區(qū)域的圖像分別投影到一全息金字塔的四個面上,得到所述被測物體的全息影像。
[0035]優(yōu)選的,所述系統(tǒng)還包括:
[0036]跟蹤模塊,用于使用Kinect的攝像頭的骨骼跟蹤引擎對用戶頭部進行骨骼跟蹤,得到用戶的頭部位置信息;
[0037]調(diào)整模塊,連接所述跟蹤模塊和所述投影模塊,用于根據(jù)所述用戶的頭部位置信息調(diào)整顯示在屏幕上的四個圖像的大小和位置,以根據(jù)用戶的頭部位置動態(tài)調(diào)整全息圖像。
[0038]上述技術方案的有益效果:提供一種利用Kinect實現(xiàn)三維建模和全息顯示的方法,通過Kinect對被測物體進行數(shù)據(jù)采集和三維建模,通過Kinect中的骨骼數(shù)據(jù)流對頭部進行定位,根據(jù)用戶頭部位置自動調(diào)節(jié)三維模型的角度,從而使得達到被測物體的全息投影適應于用戶所在的位置,操作簡單,效果顯著,大大提升了用戶的使用體驗。
【附圖說明】
[0039]圖1為本發(fā)明較佳的實施例中,一種利用Kinect實現(xiàn)三維建模和全息顯示的方法工作原理圖;
[0040]圖2為本發(fā)明較佳的實施例中,一種利用Kinect實現(xiàn)三維建模和全息顯示的方法流程示意圖;
[0041 ]圖3-4為本發(fā)明較佳的實施例中,基于圖2,一種利用Kinect實現(xiàn)三維建模和全息顯示的方法的分步驟流程示意圖;
[0042]圖5為本發(fā)明較佳的實施例中,一種利用Kinect實現(xiàn)三維建模和全息顯示的系統(tǒng)結構示意圖。
【具體實施方式】
[0043]下面將結合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領域普通技術人員在沒有作出創(chuàng)造性勞動的前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。
[0044]需要說明的是,在不沖突的情況下,本發(fā)明中的實施例及實施例中的特征可以相互組合。
[0045]下面結合附圖和具體實施例對本發(fā)明作進一步說明,但不作為本發(fā)明的限定。
[0046]本發(fā)明的較佳的實施例中,基于現(xiàn)有技術存在的上述問題,現(xiàn)提供一種利用Kinect實現(xiàn)三維建模和全息顯示的方法,其流程如圖2所示,包括:
[0047]步驟SI,通過一Kinect的傳感器于四個不同方向采集被測物體的彩色圖像和深度圖像,被測物體置于一旋轉云臺上;
[0048]步驟S2,對采集的四個面的彩色圖像和深度圖像進行處理以將兩種圖像統(tǒng)一到同一坐標系下,獲得被測物體的三維模型;
[0049]步驟S3,對三維模型中的四個面的圖像進行深度處理,使該四個面的圖像能顯示在同一屏幕的四個區(qū)域;
[0050]步驟S4,將四個區(qū)域的圖像分別投影到一全息金字塔的四個面上,得到被測物體的全息影像。
[0051 ]上述技術方案中,首先,通過一Kinect的傳感器從四個不同方向采集被測物體的彩色圖像和深度圖像,被測物體置于一旋轉云臺上,Kinect SDK (Software DevelopmentKU,軟件開發(fā)工具包)在進行三維建模之前,檢測與Kinect連接的計算機是否具備支持DirectX 11編程接口的設備,如具備則進行繼續(xù)下面步驟,如不具備則直接退出;然后,對被測物體的彩色圖像和深度圖像進行處理(包括彩色圖像和深度圖像配準、深度圖像渲染和點云配準等)以將兩種圖像統(tǒng)一到同一坐標系下,得到被測物體的三維模型;然后,對三維模型中的四個面的圖像進行深度處理(包括圖像細節(jié)增強、坐標變換和角度調(diào)整等),將四個區(qū)域的圖像分別投影到一全息金字塔的四個面上,得到被測物體的全息影像。
[0052]在本發(fā)明的一個具體實施例中,如圖1所示,一待測物體被放置在一旋轉云臺上,一 Kinect的傳感器對待測物體進行三維掃描并得到三維模型,Kinect連接一計算機,通過計算機將三維模型的截面顯示在屏幕上并經(jīng)由屏幕投影到全息顯示金字塔的上,得到待測物體的全息圖像,同時,Kinect的攝像頭對用戶進行頭部追蹤,以根據(jù)用戶頭部位置信息動態(tài)調(diào)整全息圖像,從而使全息圖像適應用戶的任意視角。
[0053]本發(fā)明的較佳的實施例中,如圖3所示,方法還包括:
[0054]步驟S5,使用Kinect的攝像頭的骨骼跟蹤引擎對用戶頭部進行骨骼跟蹤,得到用戶的頭部位置信息;
[0055]步驟S6,根據(jù)用戶的頭部位置信息調(diào)整顯示在屏幕上的四個圖像的大小和位置,以根據(jù)用戶的頭部位置動態(tài)調(diào)整全息圖像。
[0056]上述技術方案中,首先打開Kinect的攝像頭,開啟Kinect骨骼跟蹤流,使用骨骼跟蹤引擎對用戶頭部進行骨骼跟蹤,骨骼跟蹤引擎會自動處理人體25個骨骼點(包括頭部)的信息,此處設置一個Head類型的變量,用于標定用戶頭部坐標并存儲用戶頭部坐標信息以供后續(xù)調(diào)用,然后根據(jù)用戶的頭部位置信息調(diào)整被測物體的全息影像,以使其適應用戶的視角。
[0057]根據(jù)用戶的頭部位置動態(tài)調(diào)整全息圖像包括,首先,根據(jù)用戶的頭部位置信息(包括用戶頭部與計算機的顯示屏之間的水平距離和用戶頭部相對于計算機的顯示屏的中心點的角度)調(diào)整顯示屏上四個圖像的大小和位置(包括旋轉角度);然后,通過調(diào)整顯示屏上四個圖像的大小和位置調(diào)整被測物體的全息影像(包括旋轉角度)。通過用戶的頭部坐標信息計算用戶頭部相對于Kinect的旋轉角度,由式(5)和(6)表示,再根據(jù)計算得到的角度控制被測物體對應的三維模型的旋轉角度。
[0058]rotat1nx.Angle =Math.atan2(Head.X, Head.Z)*180/3.14 (5)
[0059]rotat1ny.Angle =Math.atan2(Head.Y, Head.Z)*180/3.14 (6)
[0060]根據(jù)Kinect的攝像頭的位置信息,計算機可以自動調(diào)整圖像的大小和位置,可以通過調(diào)整每個方向的headangle的系數(shù)來調(diào)整旋轉的靈敏度,例如,在近景模式下,頭部旋轉角度的計算公式由式(7)和(8)表示。
[0061]this.rotat1n.Angle = -2*headanglex (7)
[0062]this.rotat1n2.Angle = -2*headangley (8)
[0063]本發(fā)明的較佳的實施例中,用戶的頭部位置信息包括:
[0064]用戶頭部與屏幕之間的水平距離;以及
[0065]用戶頭部相對于屏幕的中心點的角度。
[0066]本發(fā)明的較佳的實施例中,步驟S2中,對采集的四個面的彩色圖像和深度圖像進行處理包括進行圖像配準、背景分割、平滑處理和點云配準。
[0067]上述技術方案中,對被測物體的彩色圖像和深度圖像進行圖像配準,深度圖像和彩色圖像是在不同的攝像頭上拍攝的,它們拍攝的角度不同,為了讓三維重建的圖像上呈現(xiàn)彩色,需要將彩色圖像和深度圖像轉換為同一坐標系,具體過程如下:
[0068]a.將二維坐標系下的深度坐標轉化為三維坐標系下的坐標,由式(I)表示。
[0069]Z = P* tan (Hdo+L) +0(I)
[0070]其中,Z代表三維坐標系下的深度值,do為二維坐標系下的深度值,H為彩色圖像向三維圖像轉換調(diào)整角度的系數(shù),P為物體到彩色攝像頭的絕對距離,L為彩色圖像到三維圖像轉換調(diào)整角度的加系數(shù),O為深度校正系數(shù);
[0071 ] b.將二維RGB圖坐標轉化為三維坐標:根據(jù)研究表明,三維坐標下的彩色點的坐標并不是和二維坐標系下彩色點的坐標完全線性對應。二維RGB坐標和三維坐標系下的坐標的對應關系為:
[0072]X=(1-0x+Cx)*d/fx(2)
[0073]Y= ( j-0y+Cy)*d/fy(3)
[0074]式(2)和式(3)中,d為Kinect到被測物體的實際水平距離,單位為cm,(i,j)代表二維RGB圖的坐標,(Ox,Oy)分別代表RGB圖的中心坐標,ξχ、ξ#別代表Kinect在X軸和Y軸方向的畸變程度,fx和fy代表RGB圖和三維圖之間調(diào)整的比例系數(shù),這樣得到的坐標(Χ,Υ)稱為攝像頭坐標系下的坐標,在攝像頭坐標系中,通常使用右手坐標系,X軸方向的正方向是右手邊,Y軸方向的正方向向下,Z軸方向的正方向在Kinect成像平面的正前方。
[0075]對被測物體的彩色圖像和深度圖像進行背景分割,將被測物體和背景分開,只保留被測物體,背景分割是從圖像處理到圖像分析的關鍵步驟,一般情況下,在拍攝被測物體時還要拍攝去掉被測物體的背景,分割的方式是將同時具有被測物體和背景的深度圖像和只有背景的深度圖像作差,從而得到被測物體的深度圖像,為了降低圖像作差的誤差,最好選取黑色幕布作為背景。
[0076]為了體現(xiàn)空間感,需要對配準后的被測物體的深度圖像進行深度圖像渲染,打開深度數(shù)據(jù)流,接收深度數(shù)據(jù),將深度數(shù)據(jù)轉化為深度浮點型數(shù)據(jù),對深度浮點型數(shù)據(jù)進行渲染,在進行渲染時,先將含有深度浮點型數(shù)據(jù)的位圖設置為圖像控件的源碼,然后計算每個像素深度所對應的RGB系數(shù),計算方法為:將圖像的最小深度值設為minRange,若該像素深度大于最小深度值,則該圖像的灰度值Intensity為(depth-minRange)*64,若該像素深度小于最小深度值,則該圖像的灰度值Intensity為0,該圖像的RGB系數(shù)的表達式為式(4);然后,跟蹤并獲取K i n e c t體感設備的位置信息,調(diào)用K i n e c t S D K中的方法SmoothDepthFloatFrame O對每一幀深度浮點圖像進行平滑處理。
[0077]depthF1atFramePixeIsArgb[index] = (255<<24) | (Intensity< < 16)
(Intensity<<8) | Intensity (4)
[0078]本發(fā)明的較佳的實施例中,如圖4所示,對采集的四個面的彩色圖像和深度圖像進行點云配準包括:
[0079]步驟Al,分別將采集的每個面的彩色圖像和深度圖像的點云在同一坐標下進行比較,判斷是否存在相同點云:
[0080]如是,則轉至步驟A2;
[0081]如否,則對進行比較的彩色圖像和深度圖像進行邊緣拼接,得到拼接后的圖像;
[0082]步驟A2,計算每個相同點云的歐氏距離的方差;
[0083]步驟A3,判斷方差是否達到一預設值:
[0084]如是,則對相同點云進行覆蓋,得到拼接后的圖像;
[0085]如否,則轉至步驟A2。
[0086]上述技術方案中,在對被測物體進行彩色圖像和深度圖像配準后,得到三維空間下同一坐標不同位置的點的信息(包括深度和顏色等信息),圖像中所有點的集合稱為點云;首先調(diào)用Kinect SDK中的方法CalulatePointCloud()計算某視角下的點云數(shù)據(jù),然后調(diào)用方法ShadePointCloud O將該視角下的點云顯示在屏幕上,然后通過上述方法分別對測物體的四個面的圖所對應的點云數(shù)據(jù)進行保存;調(diào)用方法alignDepthFloatToReconstruct1nO對平滑處理后的圖像進行點云配準,使得被測物體的四個面的圖像對應的點云中重合的點成為同一個點,完成四個面的彩色圖像和深度圖像的拼接,此處采用ICP(Iterative Closest Point,迭代就近點)算法實現(xiàn)對圖像的拼接。
[0087]本發(fā)明的較佳的實施例中,步驟S3中,對三維模型中的四個面的圖像進行深度處理包括進行圖像細節(jié)增強、坐標變換和角度調(diào)整。
[0088]上述技術方案中,對三維模型中的四個面的圖像進行圖像細節(jié)增強,圖像增強的目的是改進圖片的質量,包括增加對比度、去掉模糊和噪聲、修正幾何畸變等,常用的圖像增強方法有,其一,灰度等級直方圖處理方法,使得處理后的圖像在某一灰度范圍內(nèi)有更好的對比度,其二,干擾抑制方法,通過低通濾波、多圖像平均、施行某類空間域算子等處理,抑制疊加在圖像上的隨機性干擾,其三,邊緣銳化方法,通過高通濾波、差分運算或某種變換,使圖形的輪廓線增強,其四,偽彩色處理方法,將黑白圖像轉換為彩色圖像,從而使人們易于分析和檢測圖像信息;然后,對四個面的圖像進行坐標變換和角度調(diào)整,使得四個面的圖像便于描述、分析和顯示。
[0089]本發(fā)明的較佳的實施例中,全息金字塔的頂端位于屏幕的中心點。
[0090]本發(fā)明的較佳的實施例中,三維模型以obj文件的形式進行存儲。
[0091]本發(fā)明的較佳的實施例中,被測物體每旋轉90°,Kinect的傳感器采集一次被測物體的彩色圖像和深度圖像。
[0092]本發(fā)明還提供一種利用Kinect實現(xiàn)三維建模和全息顯示的系統(tǒng)I,其結構如圖5所示,包括:
[0093]采集模塊2,用于通過一Kinect的傳感器于四個不同方向采集被測物體的彩色圖像和深度圖像,被測物體置于一旋轉云臺上;
[0094]第一處理模塊3,連接采集模塊2,用于對采集的四個面的彩色圖像和深度圖像進行處理以將兩種圖像統(tǒng)一到同一坐標系下,獲得被測物體的三維模型;
[0095]第二處理模塊4,連接第一處理模塊3,用于對三維模型中的四個面的圖像進行深度處理,使該四個面的圖像能顯示在同一屏幕的四個區(qū)域;
[0096]投影模塊5,連接第二處理模塊4,用于將四個區(qū)域的圖像分別投影到一全息金字塔的四個面上,得到被測物體的全息影像。
[0097]本發(fā)明的較佳的實施例中,系統(tǒng)還包括:
[0098]跟蹤模塊6,用于使用Kinect的攝像頭的骨骼跟蹤引擎對用戶頭部進行骨骼跟蹤,得到用戶的頭部位置信息;
[0099]調(diào)整模塊7,連接跟蹤模塊6和投影模塊5,用于根據(jù)用戶的頭部位置信息調(diào)整顯示在屏幕上的四個圖像的大小和位置,以根據(jù)用戶的頭部位置動態(tài)調(diào)整全息圖像。
[0100]以上所述僅為本發(fā)明較佳的實施例,并非因此限制本發(fā)明的實施方式及保護范圍,對于本領域技術人員而言,應當能夠意識到凡運用本發(fā)明說明書及圖示內(nèi)容所作出的等同替換和顯而易見的變化所得到的方案,均應當包含在本發(fā)明的保護范圍內(nèi)。
【主權項】
1.一種利用Kinect實現(xiàn)三維建模和全息顯示的方法,其特征在于,包括: 步驟SI,通過一 Kinect的傳感器于四個不同方向采集被測物體的彩色圖像和深度圖像,所述被測物體置于一旋轉云臺上; 步驟S2,對采集的四個面的彩色圖像和深度圖像進行處理以將兩種圖像統(tǒng)一到同一坐標系下,獲得所述被測物體的三維模型; 步驟S3,對所述三維模型中的四個面的圖像進行深度處理,使該四個面的圖像能顯示在同一屏幕的四個區(qū)域; 步驟S4,將四個區(qū)域的圖像分別投影到一全息金字塔的四個面上,得到所述被測物體的全息影像。2.如權利要求1所示的方法,其特征在于,所述方法還包括: 步驟S5,使用Kinect的攝像頭的骨骼跟蹤引擎對用戶頭部進行骨骼跟蹤,得到用戶的頭部位置信息; 步驟S6,根據(jù)所述用戶的頭部位置信息調(diào)整顯示在屏幕上的四個圖像的大小和位置,以根據(jù)用戶的頭部位置動態(tài)調(diào)整全息圖像。3.如權利要求1所示的方法,其特征在于,所述用戶的頭部位置信息包括: 所述用戶頭部與所述屏幕之間的水平距離;以及 所述用戶頭部相對于所述屏幕的中心點的角度。4.如權利要求1所示的方法,其特征在于,所述步驟S2中,對采集的四個面的彩色圖像和深度圖像進行處理包括進行圖像配準、背景分割、平滑處理和點云配準。5.如權利要求4所示的方法,其特征在于,對采集的四個面的彩色圖像和深度圖像進行點云配準包括: 步驟Al,分別將采集的每個面的彩色圖像和深度圖像的點云在同一坐標下進行比較,判斷是否存在相同點ZST: 如是,則轉至步驟A2; 如否,則對進行比較的彩色圖像和深度圖像進行邊緣拼接,得到拼接后的圖像; 步驟A2,計算每個相同點云的歐氏距離的方差; 步驟A3,判斷所述方差是否達到一預設值: 如是,則對相同點云進行覆蓋,得到拼接后的圖像; 如否,則轉至步驟A2。6.如權利要求1所示的方法,其特征在于,所述步驟S3中,對所述三維模型中的四個面的圖像進行深度處理包括進行圖像細節(jié)增強、坐標變換和角度調(diào)整。7.如權利要求1所示的方法,其特征在于,所述三維模型以obj文件的形式進行存儲。8.如權利要求1所示的方法,其特征在于,所述被測物體每旋轉90°,所述Kinect的傳感器采集一次所述被測物體的彩色圖像和深度圖像。9.一種利用Kinect實現(xiàn)三維建模和全息顯示的系統(tǒng),其特征在于,包括: 采集模塊,用于通過一 Kinect的傳感器于四個不同方向采集被測物體的彩色圖像和深度圖像,所述被測物體置于一旋轉云臺上; 第一處理模塊,連接所述采集模塊,用于對采集的四個面的彩色圖像和深度圖像進行處理以將兩種圖像統(tǒng)一到同一坐標系下,獲得所述被測物體的三維模型; 第二處理模塊,連接所述第一處理模塊,用于對所述三維模型中的四個面的圖像進行深度處理,使該四個面的圖像能顯示在同一屏幕的四個區(qū)域; 投影模塊,連接所述第二處理模塊,用于將四個區(qū)域的圖像分別投影到一全息金字塔的四個面上,得到所述被測物體的全息影像。10.如權利要求9所述的系統(tǒng),其特征在于,所述系統(tǒng)還包括: 跟蹤模塊,用于使用Kinect的攝像頭的骨骼跟蹤引擎對用戶頭部進行骨骼跟蹤,得到用戶的頭部位置信息; 調(diào)整模塊,連接所述跟蹤模塊和所述投影模塊,用于根據(jù)所述用戶的頭部位置信息調(diào)整顯示在屏幕上的四個圖像的大小和位置,以根據(jù)用戶的頭部位置動態(tài)調(diào)整全息圖像。
【文檔編號】G06T19/00GK105869160SQ201610181640
【公開日】2016年8月17日
【申請日】2016年3月28日
【發(fā)明人】李景松, 趙馳, 蘇杭, 王曉超, 陳偉星, 程全, 朱博睿
【申請人】武漢理工大學