7月22日に、弊社前本による「Hiroshima MotionControl Network vol.01」が社内セミナーとして開催されました!
わらわらと集まってきたシステムフレンドメンバーの中から、初めまして「NUI」なECチーム二人のまったりレポートが完成☆☆
ゆっくりまったりじっくりお楽しみくださいませ♪♪
まずは、ECサービスグループの良心、つーじーのレポートです。
初投稿のECサービスグループの辻です。
このセミナーのデモの部分までを書きます!
前本さんがNUIについて話してくださるということで社内センサーセミナーのHiroshima MotionControl Network vol.01に飛び入りで参加しました。
NUIとはなんぞや?というところから話してくださいました。キーボードやマウスに続く入力インターフェイス、ジェスチャーや音声認識での入力だそうです。身近なもので言えば、iPhone/iPadのsiriでしょうかね。今回はNUIデバイスの中からKINECTとLEAP Motionについてお聞きすることができました。
実際にKINECTを体験しました。人が棒人間のように認識されます。実際には下の写真になります。何人も認識させるのは難しいようで、この日、2、3人は常時映っていましたが、それ以上は映ったり消えたりしました。でも下のように5人も映ってするアプリケーションは、ぱっとは思いつかないですね。
認識しているときの映像はいろいろありました。下の写真の映像も。
…これだけ見るとホラーに出てきそうです。
次はLEAP Motionです。
手のひらを認識します。
動きをとったり、
縦にしたり、逆さにしたりしても認識します。
ではいったい、どうやって認識しているんでしょう?
KINECTとLEAP Motionは赤外線を使って認識させています。赤外線を照射して、跳ね返ってきた赤外線を受光して距離を計算しているそうです。
どうやって距離を計算しているかKINECTについて話してくださいました。
KINECTでは一定の形を飛ばしてその大きさの変化で距離を測定しているそうです。これが、KINECT2になると赤外線を照射して戻ってくるまでの時間を計測して距離を求めるようです。正確な値が出そうですが、計算が大変そうですね。桁落ちとか丸め誤差とか考えると一筋縄ではいかなさそうな気がします。KINECTよりもKINECT2の方が消費電力が多いというのも納得がいきます。
ECサービスグループに所属していることもあり、NUIの開発には携わっていませんでしたが、話を聞いたり、体験をしたりしてみてこの分野の開発も面白そうだと感じました。こういった技術を活用したプログラムの開発もしてみたいと感じさせるお話でした。
前本さんありがとうございました!
セミナーの開発分野の話は他稿にあるので、どうぞそちらもご覧ください!
はい、つーじーありがとうございました!
楽しんでたみたいですね!よかったです☆☆
続きまして、ECサービスグループのゆるやかなツッコミが意外に刺さる、きだっちのレポートです。張り切ってどうぞ!
ここからはECサービスグループの喜田が引き継いで、開発系の感想を少しだけ書かせて頂きます。
(ちなみに私も初投稿です。よろしくお願い致します。)
普段は主にEC-CUBEのカスタマイズ等々を行っており、センサー関連に触れることはないので、初めましてNUIな状態です。
こんな状態の私にぴったりだったのが、「誰もがつまづく3D認識の課題」と称して話して頂いた開発系のお話でした。
センサーを買って、SDK導入して、サンプルで夢をひとしきり膨らませた後、実際何すれば良いのか?という内容だったのですが、この状態になると、たしかにどこから手を付けるか悩みそうです。
解決策としてセンサーの基礎知識、「センサー値の座標値・認識範囲」「センサー値の移り変わり」「モーションの取得」といった開発をする上での(重要な)一歩目となる説明をして頂きました。
センサーを使って何かしたいと考えている人にとってはかなり貴重な話を、社内にいながらにして聞くことができ、優越感にひたっております。
ECサービスグループでは、残念ながら今のところセンサーとECを絡めるといった話はないのですが、センサーへの興味と知識を深めることができた貴重な時間となりました。
はい、きだっちありがとうございました!ちなみに一般女子も参戦してたんですがハードル高くてハテナ?な状態でした!
こんな感じでシステムフレンドの社内セミナーは開催されています。
俺も聞きたいぜ!な猛者がおられましたら弊社前本まで突撃☆
普段仕事をしているときにはあまり関わることのないチームの勉強会は刺激にもなって楽しいです!
たとえ意味がわからなくとも…!
今後もまた社内勉強会が開かれたらいいなー。と思いました!了。