建议草案强调了人工智能系统的人为控制 。它写道:“人类应该行使适当的判断力,并对国防部AI系统的开发,部署,使用和成果负责 。”
该DIB指引和陪同实现文档,远远超出了简单的和较大面积的愿景陈述对AI颁发的科技巨头,如谷歌,Facebook和微软 。例如,这些建议描述了商业参与者才刚刚开始努力应对的AI发展中的主要危险和陷阱,例如数据集中的偏差 。
该DIB还建议国防部依靠是透明的工具,这意味着,不像某些类型的所谓的“黑盒子”神经网络,技术专家(许可)可以说明,通过该软件达到特定的决策或行动的过程 。
【五角大楼将采用使用人工智能的详细原则】董事会还建议仅在“明确的明确使用范围”内使用此类工具,该法令旨在防止为非战斗活动开发的软件无法进入致命行动 。
宾夕法尼亚大学政治科学教授Michael C. Horowitz表示:“最终影响将不仅取决于原则如何真正影响国防部对AI的投资,而且还取决于更广泛的AI社区如何看待DoD行动 。” 但是,他说:“ 认真对待AI道德规范可能会增加更广泛的AI社区中的一些怀疑论者愿意与DoD合作的机会,同时还可能提高算法在上使用的可靠性和有效性 。”
推荐阅读
- 终不似少年游比喻什么
- 2022年生日朋友圈 2022年生日朋友圈
- 折衷鹦鹉能洗澡吗
- 成人高考学历可以做什么 成人高考要什么学历
- 靴子筒围是什么
- 小麻雀不张嘴如何喂食
- 角马是马还是牛
- 蝙蝠是属于什么类动物
- vivox21现在能卖多少钱 vivo新机x21