• <ruby id="5koa6"></ruby>
    <ruby id="5koa6"><option id="5koa6"><thead id="5koa6"></thead></option></ruby>

    <progress id="5koa6"></progress>

  • <strong id="5koa6"></strong>
  • 典型系統分析

    發表于:2008-04-21來源:作者:點擊數: 標簽:典型系統分析
    關鍵字:系統分析----構造一個成功的虛擬空間會議(VST)系統需要解決三維虛擬會場的構造、沉浸感顯示系統的設計、“虛擬人”的建模與實時再現等問題。VLNet、FreeWalk等系統分別從不同的側面重點研究了一些問題,取得了一定的經驗。下面我們重點介紹VLNet、F
    關鍵字:系統分析---- 構造一個成功的虛擬空間會議(VST)系統需要解決三維虛擬會場的構造、沉浸感顯示系統的設計、“虛擬人”的建模與實時再現等問題。VLNet、FreeWalk等系統分別從不同的側面重點研究了一些問題,取得了一定的經驗。下面我們重點介紹VLNet、FreeWalk和North Carolina大學在Multimedia?99上推介的虛擬空間會議系統以及我們研制的系統VST?1。 

    VLNet系統
    ----VLNet(virtual life .network)系統是瑞士日內瓦大學 MiraLab實驗室和瑞士聯邦技術學院(EPLF)計算機圖形實驗室1997年研制的分布式協作虛擬環境。該系統把人工智能技術和虛擬現實技術結合起來,創造了一個真實的虛擬環境。 
    ----1.系統結構 

    ----由于大規模虛擬環境仿真系統比較復雜,VLNet采用多進程的結構,不同進程處理不同的任務。其進程分為核心進程(core process)和外部驅動程序進程(extern driver process) 兩類。核心進程完成主要的仿真任務,并為外部驅動程序(如顯示、數據庫操作等)提供底層接口。核心進程有以下4個引擎(engine),它們把VE的主要功能分成獨立的模塊,并負責資源管理。 

    ----對象行為引擎 對改變或查詢對象在場景中的定義和行為以及對象之間的碰撞檢測請求進行處理。 

    ----導航引擎 把用戶輸入和導航、對象選擇和操縱連接起來。輸入指整個身體位置的相對和絕對坐標,以及選擇或釋放對象的請求。 

    ----面部表情引擎 把VLNet和外部的面部驅動程序連接起來,包含來自外部面部驅動程序的攝像機視頻圖像,并把它們放到內部共享內存和輸出消息隊列中。 

    ----身體姿態引擎 為身體姿態提供外部接口,包括關節角度或在整體中的位置,以及激活身體的高層參數。這個引擎允許定義身體的多層控制,以及把不同外部身體驅動程序的輸出融合到一個最終的姿態。 

    ----2.虛擬人的建模 

    ----控制身體姿態需要有與人體骨骼相對應的關節結構。在 VLNet中,人體模型關節的自由度為75度,另外,每只手又有額外的30度自由度。骨架用 3D關節層表示。不同的身體實體可以通過縮放肢體來創建。 

    ----VLNet把人體分成17個部分,即頭、頸、上下軀干、臀、左右上下臂、左右手、左右上下腿、左右腳。由于頭、手和腳的表面十分復雜,所以用三角形片表示。 

    ----虛擬人的姿態和面部表情可用各部分的位置、關節角度、面部片狀態等參數進行設置。 

    ----3.虛擬人的控制 

    ----在VLNet中,與會者在虛擬環境中用替身表示,因此,與會者必須能夠實時地激活其替身。但是,虛擬人的表示需要對與會者的很多自由度進行跟蹤,所以,控制十分復雜。而與會者與環境的交互更增加了控制的難度。因此,虛擬人的控制應該使用更高層的機制。VLNet按照對虛擬人的控制方法,把虛擬人分成三類: 

    ----直接控制的虛擬人 虛擬人的關節和面部表示通過幾何學方法直接修改。例如,使用傳感器跟蹤與會者每個關節的自由度。VLNet使用預先存儲的試驗數據進行控制,以右手為例,假定有6個自由度,可通過傳感器獲取它們。在右臂進行輸入時,身體驅動程序控制的手臂可以計算關節角度。手臂運動使用的試驗數據通過傳感器獲取以及存儲在預先計算的手臂關節表中。 

    ----用戶指導的虛擬人 通過定義任務,外部驅動程序可以控制虛擬人,但虛擬人不能直接響應用戶的運動。用戶在高層次上定義虛擬人的運動,比如只需用方向和速度這兩個參數就可控制虛擬人的行走。 

    ----自主的虛擬人 虛擬人具有由目標和傳感器信息構造的內部狀態。與會者通過定義高層動機和狀態變化,對狀態進行修改。在VLNet中,構造了行為動機和適當的交互機制,自主的虛擬人可以通過提供服務(如幫助導航)改善用戶的使用環境。這些虛擬人不需要用戶指導,就能夠自主地完成它們的任務。 

    ----4.面部表情交互 

    ----面部表情可用以下4種表示方法: 

    ----面部的視頻紋理 把連續的用戶面部視頻紋理映射到虛擬人的臉上。面部表情驅動程序完成視頻捕獲和分析,包括視頻抓取、從背景中提取出面部信息。經壓縮后傳到面部表示引擎,由它送至通信進程。通信進程通過網絡將圖像發送到遠端的與會者。在接收端,通信進程接收圖像,然后將其傳至面部表示引擎,并負責解壓縮,最終把圖像紋理映射到虛擬人的臉上。 

    ----面部表情基于模型的編碼 分析面部圖像,然后提取表示面部表情的參數,并將這些參數發送到遠端與會者。從視頻中準確地分析和識別面部表情需要計算大量的面部特征參數,而VLNet的實時性要求很高,所以它只分析幾個面部特征點。初始時,用戶在圖像上畫一個模板,交互地調整好面部圖像在模板上的位置,并畫上標記點。當面部表情變化時,根據標記點位置的變化,就可以計算出面部表情參數。 

    ----講話時嘴唇運動的合成 為了讓與會者知道誰在發言,面部表示引擎需要合成相應的嘴唇運動,即在說話時控制嘴唇的開和關。 

    ----預先定義的表情 預先定義好面部表情,用戶可從中選擇,然后發給其他與會者。這很像E-mail中表達感情的方式。 

    ----總之,VLNet系統能夠構造一個大規模的虛擬環境,用戶能以“虛擬人”的方式進入虛擬環境中,并與遠地的其他用戶交互。用戶除能與虛擬環境實時交互外,還可以相互間感受到彼此的表情、姿勢等。該系統以虛擬人的建模與應用而著名,但系統缺乏對虛擬環境中協作機制的研究。 

    原文轉自:http://www.kjueaiud.com

    老湿亚洲永久精品ww47香蕉图片_日韩欧美中文字幕北美法律_国产AV永久无码天堂影院_久久婷婷综合色丁香五月

  • <ruby id="5koa6"></ruby>
    <ruby id="5koa6"><option id="5koa6"><thead id="5koa6"></thead></option></ruby>

    <progress id="5koa6"></progress>

  • <strong id="5koa6"></strong>