VRにおける期待の技術

現状、ハイエンドVRには問題点が多数存在する様に思います。一方、それらを解決する技術も存在すると考えています。本日は、そのような技術を紹介します。

VRの問題点

まず、現状のハイエンドVRの問題点は、以下のようなものです。

  • 高性能パソコンが必要
  • ケーブルが邪魔
  • 装置自体が大きくて重い
  • Oculus Sensorなどの赤外線カメラが邪魔
  • 動画などの実世界コンテンツを作るのが難しい
などが主な問題点です。

期待している技術

一方、それらの問題を解決する可能性を持つ、期待している技術は以下の様になります。
  • Foveated Rendering
  • WiGig
  • 網膜照射ディスプレイ
  • 3Dセンシング技術
    • カメラ
    • ミリ波レーダ
    • LIDAR
    • Light Field Camera
以下、それぞれの技術について解説します。

Foveated Rendering

Foveated Renderingは、視線推定をした上で、見ているところだけ高解像度にレンダリングすることです。そうすることによって、VRにおいて、パソコンに対する負荷を大幅に減らすことができます。(大体2, 3割) そして、VRにおけるパソコンに対する要求スペックも下がり、今後安価なPCが利用できる様になったり、パソコンを必要としなくなる可能性が存在します。没入感という意味でも、人間が実世界を見る際、周辺視野は低解像度で情報をみているので、より没入感のある情報提示が行うことが出来ると言われています。
例としては、以下の動画の様になります。

実際にこの技術に取り組んでいる会社は、NVIDIAとSMIです。
アイトラッキングが出来ている前提であれば、周辺視野の解像度を下げる処理は比較的簡単に実現可能だと考えます。しかし、周辺視野のレンダリングをする際、そこだけ荒くレンダリングするのは、GPUのドライバーレベルの低レイヤの操作が必要だと考えます。そのため、GPUを開発している、NVIDIA、AMD、Intel辺りが比較的優位なのでは無いかと考えています。

WiGig

WiGigは60GHzの高周波数を利用する無線通信規格です。昨年10月に認証プログラムの実施が発表され、今年から導入が進んで行くとされています。このWiGigを用いると、10m程度の近距離では、最大7Gbpsでデータ通信が可能であると言われています。このスペックであれば、2K~4K程度の解像度の映像情報を遅延少なく無線で転送可能です。WiGigを用いることで、VRヘッドセットとパソコン間の通信を無線で行え、ケーブルを無くすことができると考えます。実際に、WiGigを用いたVive対応のワイヤレスキットTPCASTが今年発売予定です。以下は参考動画です。15ms程度の遅延だそうなので、あまり違和感はないようですね。 TPCASTは3万円程度で売り出される予定だそうです。

網膜照射ディスプレイ

網膜照射ディスプレイは、網膜に直接光を照射するディスプレイです。仕組みとしては、眼の水晶体の中心を通る光は水晶体の屈折の影響を受けないことを利用し、直接網膜に光を照射できるようになっています。現状VRヘッドセットでは、ディスプレイやレンズがサイズや重さを大きくさせている一因になっているのですが、網膜照射ディスプレイであればディスプレイが無く、レンズも小さくてすむので、軽量化に向きます。また、網膜に直接光を照射するので、視力に関わらず鮮明な情報を見ることができます。そして、原理的には、高い解像度や広い視野角も実現可能なので、開発が進むことで理想的な情報提示デバイスになる可能性があると考えています。また、解像度などは低いのですが、近しい小型網膜照射ディスプレイを日本のブラザー工業が発売しています。

3Dセンシング技術

VR空間で歩き回れる(いろんな視点から対象を見れる)様な、コンテンツを製作するには内部的に3Dモデルを保持する必要があります。そのため、実写コンテンツでVR空間を歩き回れる様なコンテンツを作るには、3Dセンシング技術が必要です。
僕が把握している範囲では、以下の3つの技術が有望なのかなと考えています。

  1. カメラ
  2. ミリ波レーダ
  3. LIDAR
  4. Light Field Camera



Light Field Cameraは、基本性能に関しては、全て◯〜◎の印象です。

以下それぞれの技術の紹介です。

カメラ

RealSenseやKinectなどのことですね。近距離であれば、(カリブレーション頑張ってすれば)ミリ単位の精度を出せるので3Dスキャンに用いれます。一方、オクルージョンがひどいので、VRコンテンツなどで使う場合は工夫は必要かと思います。また、IntelはRealSenseを付けることで、外部センサを必要としないVRヘッドセットを売り出そうとしています。(Project Alloy)
以下は、GoogleのTangoプロジェクトの動画です。Tangoでも3DセンシングにはRealSenseを用いています。

ミリ波レーダー、LIDAR

ミリ波レーダとLIDARは、先ほどの表にある通り、分解能や検知距離が一長一短なのですが、組み合わせることで極めて高い性能を発揮します。現状それぞれ数十万~数百万円するのですが、近年自動車の安全運転支援や自動運転車の開発のため量産化が進み、安価になり普及が進むと考えられます。みんなが運転する自動車から、データが吸い上げられて、街の3Dモデルが生成される時代も近いかもですね。 自動車が、YouTuberとかの、VR用の撮影スタジオになったりしたらおもしろいかも。

Light Field Camera

Light Field Cameraとは何処から光が来たかまで記録することが出来るカメラのことです。一時期、焦点を撮影したあとに合わせれるカメラとして有名になりました。
VR用のLight Field Cameraとしては、Lytro ImmergeNokia OZOなどが発売予定です。そのような高性能なものだと、約500万円ほどするようですね。いいお値段。
実際に撮られた動画が以下の様なのですが、CGも混ぜているようですが、値段に見合うだけ高品質なコンテンツが作れている様に見えます。
VR Demo By Lytro from Lytro on Vimeo.

以上、僕がVR分野において期待している技術の紹介となります。

0 件のコメント :

コメントを投稿