Qiita には「PepperのAPIを使って表情認識」というチュートリアルがあります。この記事は Pepper が感情を認識するための基礎的な機能を紹介したもので、技術レベルは高くはないのですが技術以外で少し難しいポイントがあります。それは動作確認です。
「表情認識」機能を使ったロボアプリを作った場合、当然その動作確認が必要となるのですが、そのためにはPepepr の前で笑ったり、怒ったりして動作を確認しなくてはいけません。
アプリ開発に演技力が求めれるのです!
とはいえ、今から芝居の訓練をするのも難しいでしょうから、表情認識のコツをお伝えしましょう。
表情認識の原理
一般的にコンピュータの表情認識は目や眉、口などがどのような状態になっているかを識別し、その状態から表情を判断しています。
この判断基準はおおまかには以下のとおりです。
- 笑っている : 口が大きく横に開いている。歯が見えている。
- 怒っている : 眉が寄っている。
- 悲しんでいる : 口が横に大きく開いているが、閉じていて両端が少し下がっている。
- 驚いている : 口と目が大きく開いている。おでこに横線(皺)ができている。
つまり、これらを意識して表情を作れば、かなり高い確率で表情を認識してくれることになります。
一番簡単に作れる表情は「笑っている」でしょうか。口をイッと横に開けば高い確率で認識してくれるはずです。

ぜひお試しください!