poster12_system.pdf

【 2010 / 最終 】No.12 バーチャル空間へのアクセスインタフェ−ス開発プロジェクト 担当教員:Pitoyo Hartono、加藤浩二、岡本誠、佐藤直行、大沢英一
システム設計
Our system design
システムの概念図
System Concept
システム概要
現実空間への合成
- Make Mixed Reality -
・処理の流れ
-A flow of the processing
姿勢情報 - Posture -
位置情報
- Position -
電子コンパス
-Electronic compass
加速度センサ
GPS
視覚情報
- Vision -
・Web カメラ
-Web cam
-Acceleration sensor
センサデータの取得
Getting sensor data
2つのセンサからユーザの姿勢を計算
Calculation of user's posture
ユーザの現在地を計算
Calculation user's location
ユーザの視覚情報を取得
Getting user's view
仮想空間の構築
Creating virtual area
姿勢から視体積を計算
Calculation view volume from posture
現在地に基づきオブジェクトを配置
Setting object based on present location
視覚情報を貼り付けた一枚のスクリーンとして配置
Setting a screen projected user's vision
仮想空間と実空間
の位置合わせ
Adjustment real-virtual spaces
姿勢、位置、視覚の情報から構築した仮想空間と実空間の合成
Creating virtual space from posture, position and user's vision.
Mixing virtual space and real space.
仮想空間と実空間の合成
Mixing real-virtual spaces
映像出力
- Visual output -
・HMD
仮想オブジェクト
3D 空間内に1枚のスクリーンを作り、そ
こに WEB カメラからの映像を映し出して
いる。このようにして、センサからの情
報をもとに、リアルタイムに映像を見る
ことが可能である。
We put a board in 3D space and we display the view from WEB camera on this
screen. The system shows realtime AR view by combining sensors.
姿勢情報
位置情報
観測者 方位情報
現実空間映像