Facebook正在使用人工智能来减少滥用和偏见


Face book首席执行官马克·扎克伯格(Mark Zuckerberg)经常声称,人工智能将大幅减少数百万恶意Face book用户的虐待行为 。今天,在旧金山举行的F8开发公司年度会议上,CTOMikeSchroepfer详细介绍了其团队在实现这一宏伟目标方面取得的进展 。
施罗德普表示:“我们面临的挑战包括选举干预、错误信息、仇恨言论等 。“我们必须致力于深入了解细节,处理这些问题,日复一日,年复一年 。
【Facebook正在使用人工智能来减少滥用和偏见】在一个季度内,Schroepfer说,Face book拥有超过10亿个垃圾账户、超过7亿个假账户和数千万条包含裸体和暴力的内容 。他说,人工智能是所有这些类别中最重要的报告来源 。
Face book人工智能在生产中的一个具体例子是一种新的“近邻”算法,它比以前的版本更快8.5倍 。它补充了一个系统,它学习了Face book图形中所有节点的深度图嵌入-网络上数据、故事、广告和照片的收集-以找到相互关联的滥用帐户和页面 。
另一个例子是一个语言不可知的人工智能模型,在30个方言家族中对93种语言进行了训练;它与其他分类器一起使用,一次解决多个语言问题 。在等式的视频方面,Face book说,它的突出采样器模型-它快速扫描视频并处理上传剪辑的“重要”部分-使它能够识别6500万个视频中超过10,000个不同的操作 。
事实上,在一个包含30万个视频和400个动作的流行基准上,Face book表示,它的计算机视觉堆栈可以以82.8%的准确率对视频进行分类,与以前的领先模式25%相比,错误率降低了.. “我想退一步说,即使有了这些改进,当我们看到暴力视频逃避我们的系统时,很明显,视频理解还处于起步阶段,”Face book的AI Manohar Paluri主管说 。“[但是这样的系统]允许我们今天主动识别有问题的内容 。
Face book正向一种名为自我监督学习的人工智能培训技术迈进,在这种技术中,未标记数据与少量标记数据一起使用,以提高学习精度 。在一个实验中,它的研究人员能够训练一个语言理解模型,该模型只有80个小时的数据,而人工标记的数据为12,000个小时 。
帕鲁里说,像它这样的人工智能模型被用来保护选举的完整性,在,人们说22种不同的语言,用13种不同的脚本写作 。他表示:“这种自我监督技术正在跨越多种模式、文本、语言、计算机视觉视频和语音 。“这是几个数量级的工作缩减 。
在公平和减少偏见的问题上,Face book应用机器学习主管JoaquinQuinoneroCandela说,Face book正在使用错误校准等技术来检测和解决算法不公平的问题 。例如,它研究了网络的公民内容分类器-它检测文本片段涉及公民问题的可能性-是如何根据所使用的语言得出不同的结论的 。

    推荐阅读