BE CREATIVE

OpenCVよりな理系大学生による主に研究ブログ(個人用) - Egocentric Vision・SURF・SIFT・Optical Flow・AR・ Motion Analyses・Kinect・Leap Motion - 最近、VCでアルバイト始めました。

ProcessingでKinectを動かしてみた!(OpenNI + Processing + Kinect) - 深度センサの動向

最近、Kinectを使って研究しているのですがmacでも扱えないかなと何となく探していたらProcessingで簡単にKinectを扱えるとのこと。さっそく調べてみるとsimple-OpenNIというProcessingでKinectを扱うためのライブラリを使えば良さそう。OpenNIという距離画像を扱うライブラリもあったのですが、サービス終了してしまったみたいでこの界隈は色々ありそうですね。ちなみにKinectといっても色々ありますけど、今回はKinect Xbox 360センサーを用いました。最近だと、Kinect v2が新しくリリースされたりどちらかというとDepthセンサー自体はToF方式の方が主流になってきたのかなと思います。でも今回はそこに関してはあまり重要ではないので無視です(笑)、ということで早速Processingを使って幾つかサンプルプログラムを実行。
f:id:junn511:20141027232934p:plain
こんな感じでDepthMapも簡単に取得できました。で、どの程度まで正確に距離を測れるかですが、800mm-4000mm程度らしいです。実際に調べてみたところこんな感じになりました。
f:id:junn511:20141027233525p:plain
本当は誤差率を割合で表示すべきでしたね、反省。1000-4000mmの範囲は割と正確に測ることができたかなという印象です。今後はこの人達みたいにKinectを頭につけてリアルタイムに距離推定をしていこうと考え中です。笑

NAVI -- Navigational Aids for the Visually Impaired ...

全く話しは変わりますが、この間デジタルコンテンツExpoに行ってきました、というのも目的の一つに株式会社アイプラスプラスさんの製品であるAuxDecoを体験してみたかったので。簡単にいうと画像情報を触覚で伝えて視覚障害者のための歩行補助装置です。光センサーで認識した対象物のエッジだけを強調してそれをそのまま触覚で表すと、これは実際に体験してみないと分かりにくいですね。ToFセンサーも使っていて距離情報も扱えていました。色々とお話を伺ったところやはり今後Google Tangoみたいなのが登場することで、身近なスマートフォンでも赤外線センサみたいなのが付いてくると。そうなると、距離を推定、計測する研究よりもその情報をいかにして表現するか。そっちのアプリケーションが重要であり我々は触覚の研究をしているとのことでした。ただ、赤外線センサが搭載されたからといって太陽光に弱いところもあったりして、その点ステレオビジョンを用いた方が実際のアプリケーションには実現性があるのかなといった気がしました。個人的にはDepthセンサーが今後どう汎用化していくか非常に気になるところです。