• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>浙江大學專利>正文

    一種基于多視點視頻的三維展示方法技術

    技術編號:8656325 閱讀:174 留言:0更新日期:2013-05-02 00:05
    本發明專利技術公開了一種基于多視點視頻的三維展示方法,包括:(1)在多個視點上分別獲取三維場景的視頻數據;(2)構建一個多面體盒子,多面體盒子的面數與多視點的視點數相對應,將每個視點的視頻數據貼圖到多面體盒子的一對應面;(3)將構建好的三維模型放在多面體盒子中心,將整個多面體盒子劃分為若干個等面積的小平面,每個小平面虛擬為一個點光源;(4)計算三維模型上所有幾何點各個方向的出射亮度值;(5)對三維模型上的每一個幾何點進行最終顏色值進行計算以完成三維模型的渲染。通過本發明專利技術的方法可以快速方便的對真實場景進行全方位再現,同時避免了真實復雜場景的建模問題,且可以達到和高真實三維數字化建模同樣甚至更高的效果。

    【技術實現步驟摘要】

    本專利技術涉及計算機圖形圖像、視頻、虛擬現實領域,尤其涉及一種基于多視點視頻的三維展示技術。
    技術介紹
    真實場景的三維再現傳統方法是對真實場景進行三維重建,得到一系列的三維模型,然后基于不同的視點位置利用計算機圖形學對三維模型進行高真實感的渲染繪制,得到真實場景在不同視點下的圖像。獲得場景三維模型的常見方法有以下幾種一是利用三維建模軟件直接創造三維模型,嚴格上來說,這樣的模型和真實的物體還是存在比較大的差距的;二是通過提取圖像或視頻的信息重建物體的三維形態;三是通過三維掃描設備對物體表面進行三維掃描。上述方法得到一定范圍的應用,但僅僅局限于靜態場景,對于動態場景仍面臨許多富有挑戰性的問題,主要表現在(I)傳統的真實場景重建一般是基于圖像或者采用三維建模軟件的方法進行建模,由于真實的場景過于復雜,基于圖像的建模方法以及三維建模軟件建模方法都無法得到和真實場景一樣的復雜度和真實感,無論采用多么先進的真實感渲染算法,得到的圖像在真實感方面都無法和真實的照片相比較。(2)建模的復雜度。真實場景往往包含很多的場景元素,每個單獨的場景元素建模都是很費時的,當場景很大包含的內容很豐富的時候,采用三維建模軟件建模和基于圖像的建模來構建這樣一個真實的場景是不現實的,況且基于圖像的建模由于圖像的匹配等要求場景不能太復雜,建立出來的模型隨著場景的復雜度越高效果越差。(3)實時應用限制。真實場景的三維再現主要應用在實時再現方面,傳統的方法得到的三維模型的復雜度是和真實場景的內容豐富度成正比的,如果真實場景越復雜,那么重構出來的三維模型的面片數和紋理數也就越復雜,那么高真實感地渲染這樣一個復雜的三維模型在目前的計算機硬件和計算機圖形學的技術條件下是非常耗時的,不能夠滿足實時應用領域的速度要求。(4)靜態場景限制。基于圖像的建模方法或者三維建模軟件建模方法已經能夠建立不太復雜的真實場景,盡管能夠滿足一些領域的應用,但是對于復雜的動態場景,建立一個序列的復雜場景模型,在時間耗費上以及復雜場景模型存儲上都存在很大的問題。傳統的方法適用于靜態的簡單的真實場景的建模,而對于動態的真實復雜場景的建模顯得無能為力。因此,通過部署在動態真實場景中的多個視頻獲取設備對動態場景的每個時刻進行同步地獲取不同視點角度的視頻數據,然后對這些視頻數據按照時間和視點兩個維度進行視頻數據整合建模,利用已有視點視頻圖像以及虛擬視點生成等技術,支持動態真實場景的三維再現展示對于復雜真實場景的再現是非常有意義的
    技術實現思路
    本專利技術提出了,有別于目前的基于三維數字化模型的三維展示技術,本專利技術是利用多個視點的視頻圖像來模擬三維數字化模型的各個角度圖像,通過這種方法不僅僅可以快速方便地對真實場景進行全方位的再現,同時避免了真實復雜場景的建模問題,同時可以達到和高真實三維數字化建模同樣甚至更高的效果O本專利技術通過多個視點的視頻來對真實場景進行三維展示,主要有數據建模和三維渲染兩個部分,包括以下步驟:(I)在多個視點上分別獲取三維場景的視頻數據,得到多視點的視頻數據,針對多視點的視頻數據,從各視點的視頻數據中提取時間維度相應的幀,并整合為若干數據片段;該步驟中視點數量一般為至少4個,實際過程中可根據實際需要設定;(2)構建一個多面體盒子,多面體盒子的面數與多視點的視點數相對應,逐個提取步驟(I)中的數據片段,將每個視點的視頻數據貼圖到多面體盒子的一對應面;這樣構成了一個基于真實世界的全景圖,這個全景圖不是靜止的,而是隨著多視點視頻的不同幀的光照不同而動態變化;(3)將構建好的三維模型放在多面體盒子中心,將整個多面體盒子劃分為若干個等面積的小平面,每個小平面虛擬為一個點光源;該步驟每個面上等面積的小平面的數量一般為十個以上,可根據實際顯示需要確定;(4)計算三維模型上所有幾何點各個方向的出射亮度值,其中任一幾何點的出射亮度值為k (X,0^),如下式:本文檔來自技高網
    ...

    【技術保護點】
    一種基于多視點視頻的三維展示方法,其特征在于,包括:(1)在多個視點上分別獲取三維場景的視頻數據,得到多視點的視頻數據,針對多視點的視頻數據,從各視點的視頻數據中提取時間維度相應的幀,并整合為若干數據片段;(2)構建一個多面體盒子,多面體盒子的面數與多視點的視點數相對應,逐個提取步驟(1)中的數據片段,將每個視點的視頻數據貼圖到多面體盒子的一對應面;(3)將構建好的三維模型放在多面體盒子中心,將整個多面體盒子劃分為若干個等面積的小平面,每個小平面虛擬為一個點光源;(4)計算三維模型上所有幾何點各個方向的出射亮度值,其中任一幾何點的出射亮度值為Lr(x,ωr),如下式:式(1)中:Le(x,ωr)是三維模型上幾何點x沿方向ωr的自發射的亮度值;fr(x,ωr→ωr)是三維模型上幾何點x的雙向反射分布函數;θi是點光源i照射到幾何點x后反射光的向量;是θi與點光源i入射向量的夾角;Li(x,ωi)幾何點x上獲取到的點光源i的亮度值;ωi是當點光源i到幾何點x的方向角;x是三維模型上的幾何點;i是點光源;(5)對三維模型上的每一個幾何點進行最終顏色值進行計算以完成三維模型的渲染;幾何點x的計算后的顏色值C為:C=PC+LZ????(2)式(2)中:PC是幾何點x的自身顏色值;LZ是步驟(4)得到的所有點光源對幾何點x的出射亮度值之和,其中N為點光源數。FDA00002666960700011.jpg,FDA00002666960700012.jpg,FDA00002666960700021.jpg...

    【技術特征摘要】
    1.一種基于多視點視頻的三維展示方法,其特征在于,包括: (1)在多個視點上分別獲取三維場景的視頻數據,得到多視點的視頻數據,針對多視點的視頻數據,從各視點的視頻數據中提取時間維度相應的幀,并整合為若干數據片段; (2)構建一個多面體盒子,多面體盒子的面數與多視點的視點數相對應,逐個提取步驟(I)中的數據片段,將每個視點的視頻數據貼圖到多面體盒子的一對應面; (3)將構建好的三維模型放在多面體盒子中心,將整個多面體盒子劃分為若干個等面積的小平面,每個小平面虛擬為一個點光源; (4)計算三維模型上所有幾何點各個方向的出射亮度值,其中任一幾何點的出射亮度值為Ljx, ω』,如下式:2.根據權利要求1所述的基于多視點視頻的三維展示方法,其特征在于:所述步驟(2)中,將每個視點的視頻數據作為紋理貼圖到多面體盒子的一對應面。3.根據權利要求1所述的基于多視點視頻的三維展示方法,其特征在于,在指定的視點,針對三維模型渲染后得到的二維圖像進行色調映射。4.根據權利要求3所述的基于多視點視頻的三維展示方...

    【專利技術屬性】
    技術研發人員:趙磊張勤飛陸勝魯東明包倪光任艷姣
    申請(專利權)人:浙江大學
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲精品无码你懂的| 亚洲?V无码成人精品区日韩| 亚洲大尺度无码专区尤物| 亚洲国产a∨无码中文777| 性生交片免费无码看人| 精品国产毛片一区二区无码| 亚洲AV无码成人专区片在线观看 | 亚洲乱人伦中文字幕无码| 无码人妻精一区二区三区| 亚洲AV永久无码精品| 日产无码1区2区在线观看| 亚洲国产精品无码久久一区二区 | 免费无码精品黄AV电影| 无套内射在线无码播放| 性色av无码不卡中文字幕| 亚洲色在线无码国产精品不卡| 亚洲中文字幕无码一区二区三区| 无码天堂va亚洲va在线va| 亚洲一区无码中文字幕乱码| 中文字幕精品无码一区二区三区 | 无码人妻精品一区二| 99久久人妻无码精品系列蜜桃| 亚洲中文字幕无码一久久区| 亚洲人成无码久久电影网站| 无码中文在线二区免费| 亚洲Av永久无码精品黑人 | 中文字幕丰满乱孑伦无码专区| 日韩精品人妻系列无码av东京| 亚洲AV无码一区二区大桥未久 | 亚洲成a人片在线观看无码 | 内射人妻无套中出无码| 性色av极品无码专区亚洲| 无码丰满熟妇juliaann与黑人 | 亚洲Av无码乱码在线观看性色 | 少妇久久久久久人妻无码| 亚洲AV无码之国产精品| 亚洲国产精品无码久久久秋霞1| 亚洲人成人无码.www石榴| 无码h黄肉3d动漫在线观看| 国产丰满乱子伦无码专| 无码人妻一区二区三区在线水卜樱 |