ジェスチャーコントロールへの夢がまたムクムクしてきた | 身の回り(+身体自体も)タッチスクリーン化するカーネギーメロン大学およびMicrosoftのプロジェクト - Tech Crunch Japan
身の回り(+身体自体も)タッチスクリーン化するカーネギーメロン大学およびMicrosoftのプロジェクト - Tech Crunch Japan
MS、そしてCMUか。さすが、やるべき人たちは、やるべきことをやっているなと感じた。
ビデオの後半で、指の関節の動きをソフト上で認識しているのがわかる。一種のモーションキャプチャーだ。ただ、モーションキャプチャーの技術は90年代からあるけれど、マーカーを必要としていないところがまったく異なる。このあたりの技術はKinect譲りのものだろう。
ただ問題は、何らかの特別なデバイスが必要だということ。しかも、今のところデカイ。
最近のiPadやiPhoneはインカメラを装備している。そこで、このインカメラを使ってジェスチャー認識できれば、何かが大きく変わるだろうなぁとは考えているものの、まだ手を付けられずにいる。
やっぱ、やってみたいな。
・・・ MicrosoftとCarnegie Mellon Human Computer Interaction Institute が共同で、物体の表面をインタフェースに変えてしまう仕組みを構築中・・・UIはマルチタッチをサポート・・・システムでは、Kinectでも用いられているのと同様のピコプロジェクターおよび3Dスキャナを利用・・・OmniTouch・・・
MS、そしてCMUか。さすが、やるべき人たちは、やるべきことをやっているなと感じた。
ビデオの後半で、指の関節の動きをソフト上で認識しているのがわかる。一種のモーションキャプチャーだ。ただ、モーションキャプチャーの技術は90年代からあるけれど、マーカーを必要としていないところがまったく異なる。このあたりの技術はKinect譲りのものだろう。
ただ問題は、何らかの特別なデバイスが必要だということ。しかも、今のところデカイ。
最近のiPadやiPhoneはインカメラを装備している。そこで、このインカメラを使ってジェスチャー認識できれば、何かが大きく変わるだろうなぁとは考えているものの、まだ手を付けられずにいる。
やっぱ、やってみたいな。
インターフェースの可能性はまだまだ開発の余地がありますね。世界を変える力を持っている。
返信削除