近年、人工知能を活用したサービスが話題になることが多い。今回取材したのは、感情認識エンジンと呼ばれる人工知能だ。画像認識に合わせて人の感情を機械学習やディープラーニングで学んでいこうという。
MIT(マサチューセッツ工科大学)出身のRana(以下ラナ)氏は、2009年にアメリカ、ボストンのMITを卒業し、感情認識エンジンビジネスを行う、affectivaを立ち上げた。
ご存知の通り、人工知能を作るには大量の教師データが必要だが、ラナ氏はすでに75カ国、4万人以上の表情のデータを解析しているというのだ。現在、主にB2Cで消費者の感情変化を計測するために1,400以上のブランドで利用されているというのだ。
B2Bの消費者向けブランドに多く利用されているには理由がある。それは、「感情は私たちの生活において、意思決定に大きく影響を与えている」とラナ氏。それは、何のご飯を食べるか?というところから、家を買う、結婚するといった大きなことまで影響されているのだ。
一方で、生活がデジタル化する中で、ヒトはよりスムーズにスマートデバイスに接続するようになる。ところが、こういったデバイスは高い知能は有しているが、感情は有していないのだ。我々の生活を考えると、高いEQを持つ人物は周りの人からも好かれていたり、仕事でも成功している人が多い。
affectivaは、ソーシャルロボットの分野、例えば東京オリンピックのツアーガイドとして利用するということであったり、全世界からくる観光客との交流に利用されたりするものだという。もちろん、こうなってくると国民性の差異なども知る必要がある。
affectivaの仕組み
affectivaは、ヒトの顔の眉や口などいくつかの特徴点をとらえて表情をとらえている。うれしい、たのしい、など大きく8種類の感情表現カテゴリーに分けることができ、20種類の表情を読み取ることができるということだ。これは、ヒトの顔にある、45もの筋肉の動きを読む必要があり、ヒトが実現するにはかなりの訓練が必要なのだ。
そこで、affectivaでは、民族や年齢、性別などを多くのパータンで認識できるというのだ。民族に関しては、白人系、ヒスパニック系、東アジア系、南アジア系、アフリカ系と区別することができる。
こういった表情の認識をクラウド側でしかも、リアルタイムに行うというのだ。
affectivaの利用シーン
現在、マクドナルドやトヨタ、ユニリーバなどで実際に使われていて、広告を見ているときの表情を分析することでどの広告がよいかをABテストするというものだ。特に商品レビューの時間帯にポジティブな感情表現が増えたということだ。
他にも、コメディドラマを配信する、CBSでは280人に対するスマイルテストを行った。その結果ある2人のコメディアンがつまらないことが分かったというのだ。
affectivaによって消費者の感情表現を記録することで、チョコレートやガムなどの広告を強くポジティブな表情となった人は、平均的な消費者の4倍の購買があったのだという。流通業で商品サンプルを配るシーンなどでもどういうコミュニケーションがもっともリーチするかという指標に役立てることもできる。
最後に、ホームロボットであるJIBOにも搭載している。JIBOは機能的に素晴らしいということでアメリカを中心に有名なホームロボットだが、ここに感情認識エンジンを加えることでロボットに感情を持たせることに成功している。
これから、様々なモノがスマートになるなかで、機械的に何かをするのではなく、人の感情をみながらアクションをしていくということができれば、モノとヒトとのやり取りはますますスムーズになるだろう。
無料メルマガ会員に登録しませんか?
IoTNEWS代表
1973年生まれ。株式会社アールジーン代表取締役。
フジテレビ Live News α コメンテーター。J-WAVE TOKYO MORNING RADIO 記事解説。など。
大阪大学でニューロコンピューティングを学び、アクセンチュアなどのグローバルコンサルティングファームより現職。
著書に、「2時間でわかる図解IoTビジネス入門(あさ出版)」「顧客ともっとつながる(日経BP)」、YouTubeチャンネルに「小泉耕二の未来大学」がある。