エックスモバイルブログ

【iPhone】人の表情を認識・識別できるのか?仕組みを解説!

眉間にシワで「怒り」、口元が緩んで「喜び」、など顔を見れば人の感情はおよそ見当がつきます。

これらは教科書から学ぶものではなく、大勢の人との関わりの中でいつの間にか習得していく技術です。具体的な基準を尋ねられても回答に困りますが、それでも”表情を読める”ということが、我々人間が培ってきたものではないでしょうか。

限定的だけど”人間の表情を読み取る”ことができるiPhoneの機能

カメラロールに保存した写真を分析、被写体を人ごとにまとめる「ピープル」機能が「写真」アプリにはありますが、それとは異なる、サードパーティー製アプリでも実現可能です。

iOS 7以降のCoreImageには、右目や左目、口の位置などを、値として持つプロパティが多く用意されており、このライブラリを利用したアプリはある程度”人間の表情を識別する”ことが可能です。

被写体が笑顔かどうかを値(TRUE/FALSE)で持つプロパティもあり、単独写真は勿論、集合写真の中で笑顔の人の数を数える、といった使い方も可能です。

また、右目または左目が閉じていることを識別する、というプロパティを利用すれば、“ウインクでシャッターを切る”というカメラアプリも開発可能です。iPhoneのこのような画像認識機能は、iOSがバージョンアップされる度に強化される傾向があります。

iOS 11で追加されたVisionとCoreMLというライブラリを利用することで、機械学習の成果を画像の識別に応用できるようになります。

笑顔以外の表情を識別できるのかどうか、となるとまた別の問題になりますが、今後は泣顔や怒り顔など、様々なバリエーションが増える方向で進化する可能性は、高いのではないでしょうか。

まとめ

iPhoneのカメラで笑顔認証をはじめとする、人の表情の検知という機能はどんどん進化しています。表情を変えるだけでシャッターが切られるようになれば、撮影者側でなく被写体側のタイミングで撮影できるので、はい、チーズの掛け声は聞かなくなるかもしれませんね。