6月27日にITmediaで「人の心を読むコンピュータ、間もなく登場?」という記事がありました。人の表情から感情を読み取る試みです。
5月28日に本ブログで「人の心を読むコンピュータ」というエントリーを書きました。こちらは脳波や脳の血流を読み取るものでしたが、このITmediaの記事の方法だと測定時の負荷はなさそうですね。逆に知らない間に心を読み取られるリスクをどうするか、が課題になりそうですが。
ところで、民族によって仕草が全く別の意味を持つことがありますが、この辺りはどうやっているのでしょうね?
例えば、日本人が首を横に振ると否定の意味ですが、インド人の場合は上機嫌なサインだそうです。仕草は文化に根ざしたものなので、世界共通解釈は難しそうです。
音声認識の場合、言語や民族によって全く発音が異なるので、言語毎の違いを吸収する部分と、この結果を受けて処理する共通エンジンの部分に分けてデザインすることで、多言語に対応しているそうです。前者の部分は、出来るだけ多くの言語のサンプルを元にチューンアップを図ります。同じようなデザインになっているかもしれませんね。
表情に心が表れないポーカーフェイスの人の場合、どうするのか、とても興味がありますが。
表情を考える
少し時間がたってしまったのですが、永井孝尚さんのMM21の「人の心を読むコンピ