谷歌从AI工具中屏蔽基于性别的代词以防止偏见的指控


路透社-Alphabet的Google在5月推出了Gmail的一个巧妙功能,它可以在用户输入句子时自动完成句子 。点击“我爱”,Gmail可能会提出“你”或“它” 。但是,如果用户的情感对象是“他”或“她”,他们就会失去运气 。
谷歌的技术不会暗示基于性别的代词,因为它的“智能合成”技术可能会错误地预测某人的性别或性别身份,并冒犯用户,产品领导者在采访中向路透社透露 。
Gmail产品经理保罗?兰伯特(Paul Lambert)表示,1月份,一位公司研究科学家发现了这个问题,当时他打字说:“我下周要见一位投资者”,而Smart Compose则提出了一个可能的后续问题:“你想见见他吗?”而不是“她” 。
消费者已经习惯了智能手机自动校正带来的尴尬失态 。但在性别问题正在重塑政治和社会的时候,谷歌拒绝冒险,批评者也像以前一样仔细审视人工智能的潜在偏见 。
“并非所有的‘螺丝起子’都是相等的,”兰伯特说 。性别是一个“大的,大的事情”出错 。
正确处理智能组合可能对生意有好处 。证明谷歌比竞争对手更了解人工智能的细微差别是该公司为其品牌建立亲和力并吸引客户使用其人工智能驱动的云计算工具、广告服务和硬件的战略的一部分 。
【谷歌从AI工具中屏蔽基于性别的代词以防止偏见的指控】Gmail拥有15亿用户,兰伯特说Smart Compose在全球11%的Gmail.com发送的信息上提供了帮助 。
智能组合是AI开发者所谓的自然语言生成(N LG)的一个例子,其中计算机通过研究文学、电子邮件和网页中单词之间的模式和关系来学习写句子 。
一个显示了数十亿个人类句子的系统变得善于完成常见的短语,但受到一般性的限制 。例如,男性长期以来一直在金融和科学等领域占据主导地位,因此这项技术将从数据中得出结论:投资者或工程师是“他”或“他” 。
兰伯特说,由大约15名工程师和设计师组成的智能组合团队尝试了几种解决方案,但没有一个被证明是无偏见的或值得的 。他们认为最好的解决方案是最严格的解决方案:限制覆盖范围 。兰伯特说,性别代词禁令对Smart Compose提出建议的情况影响不到1% 。
“我们唯一可靠的技术是保守,”Prabhakar Raghavan说 。
谷歌决定在性别问题上保持安全是因为该公司的预测技术令人难堪 。
该公司于2015年道歉,当时其照片服务的图像识别功能将一对黑人夫妇标记为大猩猩 。在2016年,谷歌改变了搜索引擎的自动完成功能,因为它建议反犹查询“是犹太人的邪恶”,当用户寻找犹太人的信息 。
谷歌已禁止其预测技术中的诽谤和种族诽谤,并提到其商业对手或悲剧事件 。
该公司禁止性别代词的新政策也影响了谷歌智能回复中可能的反应清单 。这项服务允许用户用“听起来不错”等短语即时回复短信和电子邮件 。
谷歌利用其人工智能伦理团队开发的测试来揭示新的偏见 。兰伯特说,一个垃圾邮件和虐待团队攻击系统,试图通过思考黑客或采访人员可能会找到“多汁”的失态 。
以外的工人寻找当地的文化问题 。Smart Compose不久将使用其他四种语言:西班牙语、葡萄牙语、语和法语 。
“你需要很多人的监督,”工程领导拉哈万说,因为“在每种语言中,不恰当的网络必须涵盖不同的东西 。
谷歌不是唯一一家处理基于性别的代名词问题的科技公司 。
来自汤森路透(Thomson Reuters)投资的纽约初创企业Agolo利用AI总结商业文档 。
它的技术无法在某些文档中可靠地确定哪个代词与哪个名称 。因此,这篇
他说,更长的副本比缺失细节更好 。“最小的错误会使人们失去信心,”Al Tantawy说 。“人们希望百分之百正确 。
然而,不完美仍然存在 。谷歌和苹果开发的预测键盘工具提出了性别化的“”来完成“”和“推销员”的“销售” 。
把中性的土耳其短语“一个是士兵”输入谷歌翻译,它用英语吐出“他是士兵” 。阿里巴巴和微软的翻译工具也是如此 。Amazon.com选择“她”作为云计算客户翻译服务中的同一短语 。
人工智能专家呼吁这些公司展示一个
微软的Linked In表示,它在其一年前的预测消息工具“智能回复”中避免了性别代词,以避免潜在的错误 。
阿里巴巴和亚马逊没有回应置评请求 。
北卡罗来纳州达勒姆的集成工程师JohnHegele说,像Smart Compose中的警告和限制仍然是复杂系统中最常用的对策,该公司从统计数据中生成新闻文章 。
“最终目标是一个完全由机器生成的系统,它神奇地知道该写什么,”Hegele说 。“已经取得了很多进展,但我们还没有实现 。

    推荐阅读