【 2010 / 最終 】No.12 バーチャル空間へのアクセスインタフェ−ス開発プロジェクト 担当教員:Pitoyo Hartono、加藤浩二、岡本誠、佐藤直行、大沢英一 システム設計 Our system design システムの概念図 System Concept システム概要 現実空間への合成 - Make Mixed Reality - ・処理の流れ -A flow of the processing 姿勢情報 - Posture - 位置情報 - Position - 電子コンパス -Electronic compass 加速度センサ GPS 視覚情報 - Vision - ・Web カメラ -Web cam -Acceleration sensor センサデータの取得 Getting sensor data 2つのセンサからユーザの姿勢を計算 Calculation of user's posture ユーザの現在地を計算 Calculation user's location ユーザの視覚情報を取得 Getting user's view 仮想空間の構築 Creating virtual area 姿勢から視体積を計算 Calculation view volume from posture 現在地に基づきオブジェクトを配置 Setting object based on present location 視覚情報を貼り付けた一枚のスクリーンとして配置 Setting a screen projected user's vision 仮想空間と実空間 の位置合わせ Adjustment real-virtual spaces 姿勢、位置、視覚の情報から構築した仮想空間と実空間の合成 Creating virtual space from posture, position and user's vision. Mixing virtual space and real space. 仮想空間と実空間の合成 Mixing real-virtual spaces 映像出力 - Visual output - ・HMD 仮想オブジェクト 3D 空間内に1枚のスクリーンを作り、そ こに WEB カメラからの映像を映し出して いる。このようにして、センサからの情 報をもとに、リアルタイムに映像を見る ことが可能である。 We put a board in 3D space and we display the view from WEB camera on this screen. The system shows realtime AR view by combining sensors. 姿勢情報 位置情報 観測者 方位情報 現実空間映像
© Copyright 2025 Paperzz