我应该担心人工智能背后的哲学吗


这个问题的核心是对技术的恐惧,这是科幻小说家艾萨克·阿西莫夫(Isaac Asimov)在他的1942年《机器人三定律》中试图平息的技术,第一个定律是机器人可能不允许人类受到伤害 。
问题是,我们-公众-是否相信并相信,权威或公司不会将人工智能用于自己的利益,而不是我们的利益?
正如作家和广播员保罗·梅森(Paul Mason)对CGTN所说,“人工智能带来的基本哲学问题是:我们以谁的名义开发这种东西?它为谁服务?它假设它将创造什么样的社会?”
2020年2月对数千名英国人进行的一项调查说明了分歧:57%的人表示他们担心AI将花费比其创造的工作更多的工作,但28%的人认为AI会照顾一位年长的亲戚,还有16%的人表示他们相信AI会创造更多的工作 。法律裁决 。
同月,英国政府公共生活标准委员会的一份报告敦促在AI及其在公共部门中的潜在用途方面提高透明度,以赢得公众的信任并放心使用AI 。
牛津大学互联网研究所数字道德实验室主任卢西亚诺·弗洛里迪(Luciano Floridi)告诉CGTN:“人工智能带来了开放性问题,其中一些问题是道德上的:信任,透明,隐私 。” 他将新颖性与走进一个黑暗的房间进行比较:“您可能会担心撞到家具上 。也许那里有怪物 。也许AI将会杀死机器人 。我的建议是:打开灯 。”
梅森认为,为了发展人工智能,我们首先需要确定人类的真正含义:“这需要一种人类理论 。换句话说,它需要一种道德哲学 。这是宗教非常善于理解的东西,但是当涉及到企业时,道德哲学的观念会使他们感到恐惧 。”
【我应该担心人工智能背后的哲学吗】

    推荐阅读