我们如何预测 预防和减轻恶意使用AI的有害影响


这是由上周发布的一份长达100页的报告提出的问题 , 该报告由来自14个机构的26位作者撰写 。该报告是在英国牛津举办的为期两天的研讨会的结果 , 经过数月的研究 , 提供了人工智能对安全影响的全面景观 。
作者包括来自人类未来研究所 , 存在风险研究中心 , OpenAI和新安全中心的代表 , 他们认为人工智能不仅改变了现有威胁的性质和范围 , 而且扩大我们将面临的威胁范围 。他们对AI的许多有益应用感到兴奋 , 包括它将如何协助防御能力 。但该报告的目的是调查有意恶意使用AI的安全威胁的情况 。
“我们的报告侧重于人们如何对人工智能进行故意伤害 , ”剑桥存在风险研究中心执行主任Seánóhéigeartaigh说 。“人工智能可能会在网络 , 物理和政治安全方面构成新威胁 , 或改变现有威胁的性质 。”
重要的是 , 这不是关于遥远未来的报道 。所考虑的唯一技术是那些已经可用或可能在未来五年内的技术 。因此 , 这一信息是紧迫的 。我们需要承认风险并采取措施来管理它们 , 因为技术呈指数级增长 。正如采访人员Dave Gershgorn所说的那样 , “善人的每一次人工智能推进都是对坏人的推进 。”
人工智能系统往往比传统工具更高效 , 更具可扩展性 。此外 , 人工智能的使用可以增加人们对所采取行动的匿名性和心理距离 , 从而可能降低和暴力行为的障碍 。此外 , 人工智能系统有其独特的漏洞 , 包括数据中毒的风险 , 对抗性的例子 , 以及在设计中利用漏洞 。支持AI的攻击将超过传统的网络攻击 , 因为它们通常会更有效 , 更有针对性 , 更难以归因 。
我们需要准备的攻击类型不仅限于复杂的计算机黑客攻击 。作者提出 , 有三个主要的安全域:数字安全 , 主要涉及网络攻击;物理安全 , 指用无人机和其他物理系统进行攻击;和政治安全 , 其中包括监视 , 通过有针对性的宣传说服和通过操纵视频欺骗等实例 。这些域具有显着的重叠 , 但该框架可用于识别不同类型的攻击 , 其背后的基本原理以及可用于保护自己的选项范围 。
可以采取哪些措施来准备在这些域中恶意使用AI?作者提供了很多很好的例子 。报告中描述的情景可能是研究人员和政策制定者探索可能的未来和集体讨论管理最关键威胁的方法的好方法 。例如 , 想象一个商业清洁机器人被重新用作不可追踪的爆炸装置可能会吓到我们 , 但它也暗示了为什么像机器人注册要求这样的政策可能是一个有用的选择 。
【我们如何预测 预防和减轻恶意使用AI的有害影响】每个领域也有自己可能的控制点和对策 。例如 , 为了提高数字安全性 , 公司可以提高消费者意识并激励白帽黑客发现代码中的漏洞 。我们也可以向网络安全社区学习 , 并采取措施 , 如人工智能开发的红色团队 , 人工智能系统的形式验证 , 以及负责任的AI漏洞披露 。为了提高人身安全 , 政策制定者可能希望规范硬件开发并禁止销售致命的自主武器 。同时 , 媒体平台可以通过提供图像和视频真实性认证 , 虚假新闻检测和加密来最小化对政治安全的威胁 。
该报告还提供了四项高级别建议 , 这些建议并非旨在提供具体的技术或政策建议 , 而是提请注意值得进一步调查的领域 。建议如下:
建议1:政策制定者应与技术研究人员密切合作 , 调查 , 预防和减轻对AI的潜在恶意使用 。
建议2:人工智能研究人员和工程师应认真对待其工作的双重性质 , 允许滥用相关的考虑因素影响研究重点和规范 , 并在有害的应用可预见时主动联系相关行为者 。
建议3:应在研究领域确定最佳实践 , 采用更成熟的方法解决计算机安全等双重用途问题 , 并在适用于AI情况下导入 。
建议4:积极寻求扩大参与讨论这些挑战的利益相关者和领域专家的范围 。
最后 , 该报告确定了进一步研究的几个领域 。其中第一个是向网络安全社区学习 , 因为随着基于AI的系统变得更加广泛和有能力 , 网络安全事件的影响将会增加 。其他研究领域包括探索不同的开放性模型 , 促进AI研究人员的责任文化 , 以及开发技术和政策解决方案 。
正如作者所述 , “恶意使用人工智能将影响我们构建和管理数字基础设施的方式 , 以及我们如何设计和分配人工智能系统 , 并可能需要政策和其他机构响应 。”
虽然这只是人工智能将如何影响全球安全所需的理解的开始 , 但本报告推动了讨论的进展 。它不仅描述了许多与人工智能相关的紧急安全问题 , 而且还提出了我们今天可以开始为这些威胁做准备的方法

    推荐阅读