从更强大的语音和图像识别到自动驾驶汽车,机器学习和深度学习近年来已取得了许多突破 。但是,这些试图模仿大脑工作方式的人工智能技术的一个大问题是,他们使用的神经网络不具备人们所拥有的常识性知识和上下文,例如社会习俗,物理学定律和原因和结果 。
这可能会使他们的决策有时感到困惑或完全错误—正如使用Alexa,Google助手或任何数量的客户支持聊天机器人的人所知道的那样 。但也许不会太久 。
Salesforce.com Inc.的研究团队今天宣布了一篇论文,概述了改善这种情况的方法 。本文将在7月29日至8月的计算语言学协会年会上发表 。2在佛罗伦萨,研究人员 建议不仅使用来自各种数据集的数据来训练神经网络模型,以如何准确地回答许多问题,而且还要解释为什么这些答案是最佳的 。
Salesforce聘请了Amazon.com Inc.的Mechanical Turk众包服务人员,以举例说明今年早些时候由特拉维夫大学和艾伦人工智能研究所的研究人员提出的常识问答或CQA数据集 。
Salesforce首席科学家Richard Socher告诉SiliconANGLE:“基本上,它可以提取大量无人监管的[未标记]文本,从该文本中提取常识,并为其提供推理 。”
Salesforce研究科学家Nazneen Rajani补充说,令人惊讶的结果是,仅在模型训练阶段看到人为推理的示例后,神经网络在真实测试中的表现要好得多 。她在博客中写道:“我们推测这些解释捕获了有关世界运转方式以及网络在测试时根据这些信息进行推理的有价值的信息 。”
在研究的第二部分中,研究人员(包括Salesforce Research的Bryan McCann和Xiong Ximing在内)都训练了第二个神经网络,只是为了学习如何从大量阅读的模仿CoS-E的人类文本的文本中生成常识性推理 。产生的解释 。这个常识自动生成的解释或CAGE框架在回答的准确性方面做得更好,尽管它仍然远远落后于人类95%的准确度,但65%的分数超过了其他最新方法 。
【Salesforce旨在为AI带来更多常识】麦肯表示,他希望随着模型对世界知识的熟悉,结果会更好 。他希望这些解释将随着时间的推移“填补空白” 。
Salesforce在论文中承认,还需要改进的另一个领域,这几天从实验室到华盛顿特区都引起了越来越多的关注:根除数据中的偏差,从而消除了模型中的偏差 。例如,在CQA中,Salesforce研究人员注意到“明显的性别差异和偏见,在负面语境中使用的女性代词比例更高 。”
拉贾尼说,虽然可能需要在模型中而不是数据中发生,但尚不清楚如何解决这种偏差,目前尚无法清除所有偏差 。McCann补充说:“我们想研究一种减少偏见的旋钮,”但至少新工作为神经网络如何解决这种偏见提供了更好的解释 。
推荐阅读
- 非遗珑琥是啥
- 国五国六区别是什么
- 附近有没有租空调的_附近旧空调回收店
- 家教小故事
- 拼多多好友在哪里找,拼多多里面怎么加好友
- ps如何批量调整大小,ps怎么把多张图片调整尺寸一样大小
- 支付宝红包提醒怎么设置红包提示音提醒功能设置教程
- ps怎么调整大小,ps的大小如何调整
- 苹果手机怎么重启,iphone手机怎么样重启