科幻小说可以使我们免受不良技术的侵害


短片《屠杀机器人》描绘了不久的将来 , 成群的微型无人机因政治信仰而刺杀成千上万的人 。由学者和激进主义者于2017年11月发布 , 警告了高级人工智能(AI)的危害 , 该病毒迅速传播开来 , 迄今为止已吸引了超过300万的浏览量 。它引发了关于自动武器未来的公开辩论 , 并给参加“联合国传统武器公约”的外交官会议施加压力 。
但是 , 这种投机科幻故事讲述不仅可以吸引注意力 。设计和构建先进技术的人员可以使用故事来考虑工作的后果并确保将其永久使用 。而且我们认为 , 这种“科幻原型”或“设计小说”可以帮助防止人类的偏见进入新技术 , 进一步加剧社会的偏见和不公 。
【科幻小说可以使我们免受不良技术的侵害】偏见可能导致某些类别(结果 , 人员或思想)相对于其他类别的任意偏好 。例如 , 无论是否意识到 , 有些人可能偏向于雇用女性担任行政工作 。
围绕记录这种偏差的数据建立的技术最终可能会重现问题 。例如 , 可以设计旨在为特定工作选择最佳简历的招聘软件 , 以寻找能够反映男性潜意识偏见的特征 。在这种情况下 , 该算法最终将偏爱男士简历 。而且这不是理论上的-实际上发生在Amazon上 。
设计算法时未考虑可能的负面影响 , 已与医生“写出给定治疗的益处并完全忽略其副作用(无论其严重程度)”进行了比较 。
一些科技公司和研究人员正在尝试解决这个问题 。例如 , 谷歌制定了一套道德原则来指导其人工智能的发展 。英国学者发起了一项名为“不平等”的倡议 , 旨在鼓励技术设计和使用方面的更大公平和正义 。
问题在于 , 在公开场合 , 公司往往只对近期技术的潜在后果抱有积极的看法 。例如 , 无人驾驶汽车经常被描述为解决了我们从成本到安全的所有运输问题 , 而忽略了网络攻击日益增加的危险或它们可能鼓励人们减少步行或骑自行车的事实 。
难以理解数字技术的工作原理 , 尤其是那些由晦涩的算法严重驱动的数字技术 , 也使人们更难于对问题进行复杂而全面的了解 。这种情况在令人放心的积极叙事和模糊的怀疑之间产生了张力 , 这种怀疑是在我们周围的技术中某种程度上嵌入了偏见 。这就是我们认为可以通过设计小说进行叙事的地方 。
故事是思考可能性和复杂情况的自然方法 , 我们一生都在聆听 。科幻小说可以像Slaughterbots一样帮助我们推测近期技术对社会的影响 。这甚至可能包括社会正义问题 , 例如将某些群体(例如难民和移民)排除在数字创新之外的方式 。
揭示(可能的)未来
设计小说的故事为设计师 , 工程师和未来主义者(以及其他人)提供了一种新颖的方式 , 可以从人类的角度思考技术的影响并将其与未来的可能需求联系起来 。结合逻辑和想象力 , 设计小说可以揭示技术可能如何被采用和使用的各个方面 , 从而开始有关其未来后果的对话 。
例如 , 短篇小说“来源”探讨了如果AI使用众包信息和数据库来预测谁可能谋杀的话会发生什么 。研究人员发现 , 由于数据库中挤满了少数族裔群体 , 由于社会原因 , 由于统计学原因 , 这些族群更容易受到冒犯 , 因此“来源”模型比更容易错误地怀疑少数民族 。
您不必成为有才华的作家或制作光滑的电影即可制作设计小说 。涉及卡片和情节提要的集思广益活动已用于开发设计小说并帮助发展讲故事的过程 。使使用此类工具的研讨会更为普遍 , 将使更多的工程师 , 企业家和政策制定者能够使用这种评估方法 。而且 , 将产生的成果公之于众将有助于在技术影响社会之前揭露技术中的潜在偏见 。
鼓励设计师以这种方式创建和分享更多的故事将确保支撑新技术的叙述不仅呈现出积极的印象 , 也不会呈现出极端的消极或反乌托邦风格 。相反 , 人们将能够欣赏到我们周围正在发生的两个方面 。

    推荐阅读