新型AI代理会自动实时生成自然语言解释


小编发现不少朋友对于 新型AI代理会自动实时生成自然语言解释 这方面的信息都比较感兴趣 , 小编就针对 新型AI代理会自动实时生成自然语言解释 整理了一些相关方面的信息 在这里分享给大家 。
乔治亚理工学院开发的AI代理会自动实时自动生成自然语言解释 , 以解释其行为背后的动机 , 理想情况下 , 那些不是该领域专家的人可以更自信地与AI工具进行交互 。
该项目由佐治亚理工学院互动计算学院的博士候选人Upol Ehsan率先 。
Ehsan在致力于新技术的博客文章中写道:“人工智能几乎没有人为因素 。” “它是人类为人类设计的 , 从培训到测试再到使用 。因此 , 人工智能系统必须是人类可理解的 。令人遗憾的是 , 随着基于AI的系统变得越来越复杂 , 最终用户的决策制定往往变得更加“黑匣子” , 从而阻碍了信任 。”
Ehsan和他的同事与康奈尔大学和肯塔基大学的研究人员一起设计了一个AI代理 , 该代理可以玩经典的街机游戏Frogger , 并在屏幕上产生解释以证明其在游戏中的作用 。Frogger的目标是让卡通青蛙安全地回家 , 而不会被车辆撞到或淹没在河中 。
一群被视为AI的研究参与者参加了游戏 , 并被要求对每个AI动作的屏幕上基本原理进行评级和排名 。一种解释是由人类撰写的 , 一种是由AI生成的 , 一种是随机生成的;所有这些都是根据信心 , 人性 , 行动的充分理由及其可理解性来判断的 。
Ehsan和他的团队报告说 , 尽管人为做出的回应仍然是参与者最喜欢的蛋糕 , 但AI产生的解释紧随其后 。当参与者表现出对环境条件和适应性的认可 , 并传达对即将到来的危险的意识并为之预先计划时 , 他们在AI产生的基本原理中排名较高 。多余或明显的答复排名最低 。
一项后续研究将人类排除在外 , 要求参与者对一组AI生成的响应进行排名 , 在AI犯错或行为异常的情况下 , 他们倾向于使用这些响应 。理论依据既简洁又有针对性 , 也可能是整体性的 , 更多地侧重于游戏的背景 。
参与者倾向于以3比1的比例整体回答 , 这表明他们赞赏AI对未来步骤的思考 , 而不是立即做出决定 。
Ehsan写道:“该项目提供了对AI代理的基础理解 , 可以模仿大声思考 。” “可能的未来方向包括了解人类可以对AI产生的解释提出异议时会发生什么 。研究人员还将研究代理商在不同情况下的反应方式 , 例如在紧急情况下或在教室中协助老师时 。”
Ehsan等人的工作在计算机协会2020年智能用户界面大会上进行了介绍 。
【新型AI代理会自动实时生成自然语言解释】

    推荐阅读