眉間にシワで「怒り」、口元が緩んで「喜び」、など顔を見れば人の感情はおよそ見当がつきます。
これらは教科書から学ぶものではなく、大勢の人との関わりの中でいつの間にか習得していく技術です。具体的な基準を尋ねられても回答に困りますが、それでも”表情を読める”ということが、我々人間が培ってきたものではないでしょうか。
限定的だけど”人間の表情を読み取る”ことができるiPhoneの機能
カメラロールに保存した写真を分析、被写体を人ごとにまとめる「ピープル」機能が「写真」アプリにはありますが、それとは異なる、サードパーティー製アプリでも実現可能です。
iOS 7以降のCoreImageには、右目や左目、口の位置などを、値として持つプロパティが多く用意されており、このライブラリを利用したアプリはある程度”人間の表情を識別する”ことが可能です。
被写体が笑顔かどうかを値(TRUE/FALSE)で持つプロパティもあり、単独写真は勿論、集合写真の中で笑顔の人の数を数える、といった使い方も可能です。
また、右目または左目が閉じていることを識別する、というプロパティを利用すれば、“ウインクでシャッターを切る”というカメラアプリも開発可能です。iPhoneのこのような画像認識機能は、iOSがバージョンアップされる度に強化される傾向があります。
iOS 11で追加されたVisionとCoreMLというライブラリを利用することで、機械学習の成果を画像の識別に応用できるようになります。
笑顔以外の表情を識別できるのかどうか、となるとまた別の問題になりますが、今後は泣顔や怒り顔など、様々なバリエーションが増える方向で進化する可能性は、高いのではないでしょうか。
まとめ
iPhoneのカメラで笑顔認証をはじめとする、人の表情の検知という機能はどんどん進化しています。表情を変えるだけでシャッターが切られるようになれば、撮影者側でなく被写体側のタイミングで撮影できるので、はい、チーズの掛け声は聞かなくなるかもしれませんね。