学会報告: ISMAR 2007
International Symposium on Mixed and Augmented Reality (ISMAR 2007)とは、名前のとおり、Mixed Reality (仮想と現実の融合) やAugumented Reality (拡張現実感) というテーマに取り組む先端的な研究者が集まる会合です。6回目にあたる前回は、2007年11月13日から16日の間に開催されました。
3年前にも同シンポジウムに参加したことがあるのですが、そのときに比べて大きな変化を感じました。
まずは、CyberCode (CSLにて開発された技術!)をベースにした PlayStation3 用のゲームタイトル Eye of Judgment が Sony Computer Entertainment より発売されたことも一つの切っ掛けとなり、Augumented Reality の研究ドメインが俄かに活気づいていること。また研究にとどまらず、シンガポールでは CyberCode に類似した技術を用いた子ども用の知育玩具を開発・販売する会社が興されていることも知りました (http://www.mxrcorp.com/)。安価なカメラの普及など環境的な要因もあり、まさに Augumented Reality が研究の世界を超えて実用的な段階にまで成熟してきたことを感じます。
一方の研究の方では、特にカメラの位置を同定するにあたって、CyberCode に代表されるような特定用途を想定した人為的なマーカーに依存するのではなく、実世界中に存在するありふれたオブジェクトなどから複数の特徴点を動的に捉えてこれをマーカー代わりにすることで映像の追尾をするという方向性にあることもここ数年の Augumented Reality の研究分野における大きな動きと言えます。Simultaneous Localization and Mapping、略して SLAM と呼ばれるこの方法は、元々はロボットの研究領域から導入されたものです。現時点では、カメラの位置を動かす時間が長くなるほどその間に誤差が蓄積されて位置推定がずれていくという問題や、静的な環境を前提としているために物を動かしたりといったフィジカルなインタラクションが出来ないという (CyberCode などには存在しない) 欠点がありますが、今後の発展が楽しみな有望な技術です。
SLAM に関しては、以下の研究発表が興味深いものでした。いずれも、最初に SLAM によって物体の表面形状などの基本的な幾何を同定し、その上で CG で生成されたオブジェクトがインタラクションするというものです。YouTube 上で視聴できるデモ映像は大変面白いので是非観てください。
- Ninja on a Plane: Automatic Discovery of Physical Planes for Augmented Reality Using Visual SLAM by Denis Chekhlov, Andrew Gee, Andrew Calway, and Walterio Mayol-Cuevas / UK
(http://www.cs.bris.ac.uk/~chekhlov/)
(http://www.youtube.com/watch?v=WfvUi4mDolo)
- Parallel Tracking and Mapping for Small AR Workspaces by Georg Klein and David Murray / UK
(http://www.robots.ox.ac.uk/~gk/publications/KleinMurray2007ISMAR.pdf)
(http://www.youtube.com/watch?v=F3s3M0mokNc)
その他に興味深かった論文を以下に紹介します。
- Laser Pointer Tracking in Projector-Augmented Architectural Environments by Daniel Kurz, Ferry Haentsch, Max Grosse, Alexander Schiewe, and Oliver Bimber
(http://www.uni-weimar.de/medien/ar/Pub/LPTRE.pdf)
部屋のどこをレーザポインタで差してもそれを高速に追尾するカメラとプロジェクタを用いた Augumented Reality システムで、壁面や天井などに投影される CG オブジェクトとレーザポインタとでインタラクションが可能です。レーザポインタの位置を精密に追尾するために、あらかじめ部屋の正確な形状を半自動で測定する仕組みも導入されています。
- Hear-Through and Mic-Through Augmented Reality: Using Bone Conduction to Display Spatialized Audio by Robert Lindeman, Haruo Noma, and Paulo Goncalves de Barros
(http://web.cs.wpi.edu/~gogo/papers/Lindeman_ismar2007.pdf)
視覚における Video-See-Through に相当する、音響のドメインの Augumented Reality 技術です。Hear-Through は自分の耳で聴く実世界の音に加えて骨伝導ヘッドセットによってコンピュータで生成された仮想の音を重ねるという考え方です。
さて、人間の感覚の融合という意味では、聴覚、触覚、視覚などの異なるモダリティを融合するといった考え方も今後の Augumented Reality の重要なトピックになると思うのですが、現在のところ、このような方向で行われている研究はあまり多くないようです。そこには多くの機会と可能性が開けているように思います。
(IL研究員 Ivan Poupyrev)
This article is available in Japanese.