苹果Siri的未来版本可能会解释您的情绪


苹果Siri的未来版本可能会超越语音识别功能,以提高准确性,在用户与语音助手进行对话时,可利用公司设备中的FaceTime摄像头同时分析面部反应和情绪 。
【苹果Siri的未来版本可能会解释您的情绪】苹果正在开发一种方法,可以通过在以后的Siri或其他系统版本中添加面部分析来帮助解释用户的请求 。目的是减少口头请求被误解的次数,并通过尝试分析情绪来做到这一点 。
苹果公司在专利号20190348037中说:“智能软件代理可以代表用户执行操作 。”“可以响应于自然语言的用户输入(例如用户说出的句子)来执行操作 。在某些情况下,智能软件代理采取的操作可能与用户预期的操作不匹配 。”
“例如,”继续,“可以分析视频输入中的面部图像,通过识别形状或动作来确定特定的肌肉或肌肉群是否被激活 。”
该系统的一部分需要使用面部识别来识别用户,从而提供自定义动作,例如检索该人的电子邮件或播放其个人音乐播放列表 。
然而,还旨在读取用户的情绪状态 。
“ [用户反应信息表示为一个或多个度量,例如用户反应对应于某个状态(例如肯定或否定)的概率,”专利继续说,“或用户表示反应的程度” 。
在口头命令可以以不同方式解释的情况下,这可能会有所帮助 。在这种情况下,Siri可能会计算出最可能的含义并对其进行操作,然后使用面部识别来查看用户是满意还是烦恼 。
该系统通过“通过麦克风获得音频输入,并通过照相机获得一个或多个图像”来工作 。Apple指出表情可以具有不同的含义,但是其方法根据面部动作编码系统(FACS)对可能的含义范围进行了分类 。
这是面部分类法的标准,该标准最早于1970年代创建,将每种可能的面部表情分类为广泛的参考目录 。
Apple的系统使用FACS分配分数以确定正确解释的可能性,然后让Siri做出反应或做出相应反应 。
在苹果提交的文件中归功于七位发明家,只有一位拥有先前的专利 。杰里米·霍兰(Jerremy Holland)也被列为2014年Apple专利的唯一发明人,该发明涉及同步媒体设备上的视频播放 。但是,发明人尼古拉斯·阿波斯托洛夫(Nicholas E. Apostoloff)因使用机器学习技术分析和处理视频而在其他众多专利中被引用 。

    推荐阅读