首页 > 见闻 > 关键词  > 人工智能最新资讯  > 正文

这个人工智能模型可以从自拍照中检测出11种情绪

2019-07-31 10:37 · 稿源:站长之家

站长之家(ChinaZ.com) 7月31日 消息:机器学习模型可以检测我们的面部和动作,并应用到智能手机面部解锁和Amoniji等功能中。然而,很多人工智能模型并不能通过脸部动作预测用户的感受,这也正是EmoNet和其它AI的不同之处。

tnw介绍,科罗拉多大学和杜克大学的研究人员开发了一种神经网络EmoNet,可以将图像准确地分为 11 个情感类别。为了训练这个模型,研究人员使用了 2187 个视频,将这些视频被划分为 27 个不同的情感类别,包括焦虑、惊讶和悲伤。

训练结束后,研究人员还使用了25, 000 张图片来验证EmoNet识别情绪的准确度。研究人员得出结论,EmoNet可以准确预测渴望、性欲或恐惧等情绪。然而,它无法非常精确地预测困惑、敬畏或惊讶的表情。因为有些表情如快乐、崇拜等有相似的面部特征,会让该人工智能模型感到困惑。

为了进一步改进模型,研究人员还召集了 18 个人,测量了他们的大脑活动,同时向他们展示了 112 幅不同的表情图片。测试者再向EmoNet展示了相同类型情绪的照片,进而进行对比得出结果。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词:

热文

  • 3 天
  • 7天