本發(fā)明涉及vr(virtualreality,虛擬現(xiàn)實)技術(shù)領(lǐng)域,尤其涉及一種全景直播方法及系統(tǒng)。
背景技術(shù):
目前vr直播大都采用一體機(jī)全景相機(jī)的解決方案,實現(xiàn)該方案的系統(tǒng)通常分為全景相機(jī)采集處理終端(簡稱“全景直播相機(jī)”)和視頻云分發(fā)系統(tǒng)兩部分。其中,全景直播相機(jī)通常是由多目魚眼鏡頭組成,多目魚眼鏡頭的布設(shè)要滿足覆蓋空間360度的要求,否則很難組成vr全景視頻;同時該全景直播相機(jī)需要在機(jī)內(nèi)同時完成視頻采集,視頻處理,視頻編碼和推流等處理;視頻云分發(fā)系統(tǒng)負(fù)責(zé)將一路全景vr視頻碼流分發(fā)至用戶端,用戶可通過手機(jī),電視等終端觀看全景vr視頻。
現(xiàn)有的一體機(jī)全景相機(jī)的解決方案主要存在三大缺點:
1、該相機(jī)的全景拼接處理算法只能針對自身的鏡頭模組進(jìn)行實時處理,很多情況下該相機(jī)選用的鏡頭模組并不能適應(yīng)大多數(shù)用戶的需求,用戶自己選用的帶有鏡頭模組的相機(jī)無法與該全景相機(jī)進(jìn)行適配,從而無法為用戶提供定制化需求。
2、該相機(jī)無法與現(xiàn)有普通直播相機(jī)進(jìn)行兼容,只能輸出360度全景視頻,無法支持傳統(tǒng)攝影技法,例如鏡頭無法變焦,推拉搖椅,無法切換鏡頭等,因而很難使傳統(tǒng)攝影從業(yè)者平滑過渡為vr攝影從業(yè)者。
3、高集成度的設(shè)計導(dǎo)致其攝像頭發(fā)熱,實時處理芯片發(fā)熱和電池發(fā)熱都集中在全景一體相機(jī)上,這種結(jié)構(gòu)上的缺陷導(dǎo)致系統(tǒng)無法快速散熱,從而影響拍攝時長和系統(tǒng)穩(wěn)定性。
技術(shù)實現(xiàn)要素:
本發(fā)明的目的主要在于公開一種全景直播系統(tǒng)及方法,以提高性能。
為實現(xiàn)上述目的,本發(fā)明公開一種全景直播系統(tǒng),在全景直播相機(jī)與視頻云分發(fā)系統(tǒng)之間增設(shè)伺服器,所述伺服器還設(shè)有至少兩路傳統(tǒng)直播相機(jī)的數(shù)據(jù)接口;所述伺服器的數(shù)據(jù)處理模塊用于將相應(yīng)數(shù)據(jù)接口所獲取的傳統(tǒng)視頻合成第二vr全景視頻,并在該第二vr全景視頻與從所述全景直播相機(jī)所獲取的第一vr全景視頻之間進(jìn)行切換以輸出給所述視頻云分發(fā)系統(tǒng)。
為實現(xiàn)上述目的,本發(fā)明還公開一種全景直播方法,包括:
在全景直播相機(jī)與視頻云分發(fā)系統(tǒng)之間增設(shè)伺服器,所述伺服器還設(shè)有至少兩路傳統(tǒng)直播相機(jī)的數(shù)據(jù)接口;
所述伺服器的數(shù)據(jù)處理模塊將相應(yīng)數(shù)據(jù)接口所獲取的傳統(tǒng)視頻合成第二vr全景視頻,并在該第二vr全景視頻與從所述全景直播相機(jī)所獲取的第一vr全景視頻之間進(jìn)行切換以輸出給所述視頻云分發(fā)系統(tǒng)。
基于上述直播系統(tǒng)及方法,可選的,在上述數(shù)據(jù)處理模塊將視頻數(shù)據(jù)發(fā)送給所述視頻云分發(fā)系統(tǒng)之前,通過分層對相對應(yīng)數(shù)據(jù)接口所獲取的視頻內(nèi)容進(jìn)行疊加處理。例如,當(dāng)該系統(tǒng)應(yīng)用于vr直播課堂時,第一層為背景層;第二層為與第一層無縫融合的人物內(nèi)容層;第三層為與第二層關(guān)聯(lián)的ar道具模型層,通過3d建模將課件相關(guān)的人和物進(jìn)行還原,以實時顯示并互動。其中,第一層與第二層之間的融合可采用綠幕技術(shù)實現(xiàn);第二層與第三層之間的關(guān)聯(lián)可通過追隨技術(shù)實現(xiàn)。
采用本發(fā)明的技術(shù)方案,相機(jī)與伺服器采用分離式結(jié)構(gòu),其中伺服器可采用hdmi、sdi等標(biāo)準(zhǔn)接口作為視頻源輸入接口,因而可構(gòu)建由多種不同類型的相機(jī)(例如:運(yùn)動相機(jī),微單相機(jī),單反相機(jī)等等)合成全景視頻進(jìn)行vr直播,進(jìn)而可以根據(jù)用戶對畫面清晰度等需求的不同提供定制化解決方案,提高全景直播的系統(tǒng)性能。相對應(yīng)的,該伺服器可以對接多種視頻采集終端,相應(yīng)的視頻采集終端包含導(dǎo)播臺、特效服務(wù)器、pc機(jī)、數(shù)字高清4k攝像機(jī)、全景相機(jī)、輔助教具以及全景直播相機(jī)等等。藉此,也使得原有的攝錄技術(shù)與導(dǎo)播、導(dǎo)演技術(shù)都能使用,從業(yè)編導(dǎo)攝影團(tuán)隊能夠順利過渡到vr視頻拍攝制作,又可使用傳統(tǒng)演播廳拍攝設(shè)備,減少投資。
本發(fā)明中,進(jìn)一步地,上述伺服器還可以從全景直播相機(jī)獲取第一vr全景視頻,并實現(xiàn)第二vr全景視頻與第一vr全景視頻兩者之間相互切換,方便快捷。
另一方面,伺服器與相機(jī)分別帶有各自的散熱系統(tǒng),雙方互不干擾。從而使系統(tǒng)穩(wěn)定性增強(qiáng),最大程度上避免了由于長時間直播系統(tǒng)發(fā)熱而導(dǎo)致系統(tǒng)故障出現(xiàn)。
此外,基于伺服器中數(shù)據(jù)處理模塊所集成的視頻編輯、圖層疊加等功能程序,提高全景直播的系統(tǒng)性能的同時為相關(guān)直播內(nèi)容的便捷制作提供了極大地擴(kuò)展空間。
附圖說明
為了更清楚地說明本申請實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明中記載的一些實施例,對于本領(lǐng)域普通技術(shù)人員來講,還可以根據(jù)這些附圖獲得其他的附圖。
圖1為本發(fā)明所公開的全景直播方法流程圖。
具體實施方式
為了使本領(lǐng)域的技術(shù)人員更好地理解本發(fā)明的技術(shù)方案,下面將結(jié)合附圖對本發(fā)明作進(jìn)一步的詳細(xì)介紹。
實施例1
本實施例公開一種全景直播系統(tǒng),在全景直播相機(jī)與視頻云分發(fā)系統(tǒng)之間增設(shè)伺服器,伺服器還設(shè)有至少兩路傳統(tǒng)直播相機(jī)的數(shù)據(jù)接口;伺服器的數(shù)據(jù)處理模塊用于將相應(yīng)數(shù)據(jù)接口所獲取的傳統(tǒng)視頻合成第二vr全景視頻(例如,可以完成多路視頻實時合成4k視頻,以提高vr直播的清晰度),并在該第二vr全景視頻與從全景直播相機(jī)所獲取的第一vr全景視頻之間進(jìn)行切換以輸出給視頻云分發(fā)系統(tǒng)。
在本實施例中,對多路傳統(tǒng)視頻的合成可以采用分屏來實現(xiàn),各子屏可對應(yīng)至少一路傳統(tǒng)視頻;或者,將與現(xiàn)有的全景直播相機(jī)對鏡頭模組的拼接算法類似的相關(guān)程序加載到該伺服器的數(shù)據(jù)處理模塊中;基于對全景視頻圖像的拼接為本領(lǐng)域技術(shù)人員所熟知的現(xiàn)有技術(shù),在此不做贅述。
可選的,上述數(shù)據(jù)處理模塊集成有視頻編輯處理等功能(必要時,可與相應(yīng)的上位機(jī)協(xié)同實現(xiàn)該功能),還用于在將視頻數(shù)據(jù)發(fā)送給視頻云分發(fā)系統(tǒng)之前,通過分層對相對應(yīng)數(shù)據(jù)接口所獲取的視頻內(nèi)容進(jìn)行疊加處理。例如:當(dāng)該系統(tǒng)應(yīng)用于vr直播課堂時,第一層為背景層,背景層可以由全景圖像場景,3d建模的虛擬講堂、殿堂等場景和實時直播vr全景視頻場景構(gòu)成;第二層為與第一層無縫融合的人物內(nèi)容層,相關(guān)教學(xué)資料和互動內(nèi)容的顯示也在該層出現(xiàn);第三層為與第二層關(guān)聯(lián)的ar(augmentedreality,增強(qiáng)現(xiàn)實)道具模型層,通過3d建模將課件相關(guān)的人和物進(jìn)行還原,以實時顯示并互動。其中,第一層與第二層相關(guān)的視頻內(nèi)容可以從伺服器對接多種視頻采集終端的相應(yīng)數(shù)據(jù)接口獲取,且第一層與第二層之間的融合可采用綠幕技術(shù)等實現(xiàn);第二層與第三層之間的關(guān)聯(lián)可通過追隨等技術(shù)實現(xiàn),例如,在課件中,采用人臉跟蹤技術(shù),在課件講師的面部實時疊加一些如帽子、眼鏡等虛擬物體,提高趣味性,又或者是,在授課過程中涉及具體的歷史事件時,通過頭戴式增強(qiáng)現(xiàn)實顯示器上看到重現(xiàn)的歷史事件,使得聽眾有身臨其境之感。藉此,該伺服器所采用的視頻分層合成方案將vr和ar相結(jié)合,進(jìn)一步擴(kuò)展了系統(tǒng)的可定制化,并進(jìn)一步提高了系統(tǒng)的交互性、趣味性等。
基于上述系統(tǒng),本實施例還公開一種相應(yīng)的全景直播方法,如圖1所示,包括:
步驟s1、在全景直播相機(jī)與視頻云分發(fā)系統(tǒng)之間增設(shè)伺服器,伺服器還設(shè)有至少兩路傳統(tǒng)直播相機(jī)的數(shù)據(jù)接口。
步驟s2、伺服器的數(shù)據(jù)處理模塊將相應(yīng)數(shù)據(jù)接口所獲取的傳統(tǒng)視頻合成第二vr全景視頻,并在該第二vr全景視頻與從全景直播相機(jī)所獲取的第一vr全景視頻之間進(jìn)行切換以輸出給視頻云分發(fā)系統(tǒng)。
可選的,在數(shù)據(jù)處理模塊將視頻數(shù)據(jù)發(fā)送給視頻云分發(fā)系統(tǒng)之前,還包括:伺服器通過分層對相對應(yīng)數(shù)據(jù)接口所獲取的視頻內(nèi)容進(jìn)行疊加處理。例如:當(dāng)該方法應(yīng)用于vr直播課堂時,第一層為背景層;第二層為與第一層無縫融合的人物內(nèi)容層;第三層為與第二層關(guān)聯(lián)的ar道具模型層,通過3d建模將課件相關(guān)的人和物進(jìn)行還原,以實時顯示并互動。可選的,第一層與第二層之間的融合可采用綠幕技術(shù)實現(xiàn);第二層與第三層之間的關(guān)聯(lián)可通過追隨技術(shù)實現(xiàn)。
綜上,基于本實施例的上述直播系統(tǒng)及方法,伺服器與相機(jī)采用分離式結(jié)構(gòu),其中伺服器可采用hdmi、sdi等標(biāo)準(zhǔn)接口作為視頻源輸入接口,因而可構(gòu)建由多種不同類型的相機(jī)(例如:運(yùn)動相機(jī),微單相機(jī),單反相機(jī)等等)合成全景視頻進(jìn)行vr直播,進(jìn)而可以根據(jù)用戶對畫面清晰度等需求的不同提供定制化解決方案,提高全景直播的系統(tǒng)性能。相對應(yīng)的,該伺服器可以對接多種視頻采集終端,相應(yīng)的視頻采集終端包含導(dǎo)播臺、特效服務(wù)器、pc機(jī)、數(shù)字高清4k攝像機(jī)、全景相機(jī)、輔助教具以及全景直播相機(jī)等等。藉此,也使得原有的攝錄技術(shù)與導(dǎo)播、導(dǎo)演技術(shù)都能使用,從業(yè)編導(dǎo)攝影團(tuán)隊能夠順利過渡到vr視頻拍攝制作,又可使用傳統(tǒng)演播廳拍攝設(shè)備,節(jié)約了資源,減少投資。
本發(fā)明中,進(jìn)一步地,上述伺服器還可以從全景直播相機(jī)獲取第一vr全景視頻,并實現(xiàn)第二vr全景視頻與第一vr全景視頻兩者之間相互切換,方便快捷。
另一方面,伺服器與相機(jī)分別帶有各自的散熱系統(tǒng),雙方互不干擾。從而使系統(tǒng)穩(wěn)定性增強(qiáng),最大程度上避免了由于長時間直播系統(tǒng)發(fā)熱而導(dǎo)致系統(tǒng)故障出現(xiàn)。
此外,基于伺服器中數(shù)據(jù)處理模塊所集成的視頻編輯、圖層疊加等功能程序,提高全景直播的系統(tǒng)性能的同時為相關(guān)直播內(nèi)容的便捷制作提供了極大地擴(kuò)展空間。
以上只通過說明的方式描述了本發(fā)明的某些示范性實施例,毋庸置疑,對于本領(lǐng)域的普通技術(shù)人員,在不偏離本發(fā)明的精神和范圍的情況下,可以用各種不同的方式對所描述的實施例進(jìn)行修正。因此,上述附圖和描述在本質(zhì)上是說明性的,不應(yīng)理解為對本發(fā)明權(quán)利要求保護(hù)范圍的限制。