皆さんはLeapMotionをご存知でしょうか。
LeapMotionはとても小さいデバイスなのですが、たったこれだけで10本の指の動きを検知することができます。
赤外線センサで検知しているようです。
今回は、そのLeapMotionで検知した動きをUnityで表示して、
Unity内のものに触れる、ということを試してみました!
手をLeapMotionの前で動かすことで、Unity内の手のモデルも同じように動き、
アプリケーション内のものに干渉することができました。
これを使ってバーチャル世界に設置したボタンを押せるのではないか?
そう考えて3Dのモデルをボタンとして置いて、
手が触れたときに画面遷移をする、ということをやってみました。
実際にどのようなアプリケーションとして活用することができるのかについては
さまざまなアイデアがあると思いますが、
最近だとマイクロソフトが発売するとされているHololensにUnityが対応する!
と発表されたことによって、
手の動きをアプリケーション内に反映させる機能がHololens自体に組み込まれているとしても
ウェアラブルデバイスのUIを考える上では検証の意義があるのではないかと思います。
LeapMotionを使用した開発状況も、随時更新していきます。よろしくお願い致します!