当训练数据按性别倾斜时 AI系统在诊断疾病方面更差


人工智能模型在预测哪些退伍事务医院治疗的患者会出现肾功能突然下降方面显示出巨大的希望 。但这也带来了一个关键的警告:女性仅占用于训练算法的数据的患者的6%,而且在女性身上进行测试时效果更差 。
由谷歌姊妹公司DeepMind构建的这种引人注目的算法的缺点突出了一个问题,即从事医学的机器学习研究人员越来越担心 。新的研究表明,这个问题可能比专家们以前意识到的更为普遍和阴险 。
这项研究由阿根廷的研究人员领导,并于周一在PNAS杂志上发表 。研究发现,当女性患者被排除在开发机器学习模型的训练数据中或在表示数据中的代表性明显不足时,该算法在对所有影响胸部区域的各种医疗条件 。当男人被排除在外或人数不足时,也看到了相同的模式 。
加利福尼亚大学伯克利分校的齐亚德·奥伯迈耶(Ziad Obermeyer)说:“这是一个关于偏差如何进入算法的有价值的警告性故事,”他研究机器学习及其临床和健康政策应用 。“这些结果的结合,以及对这些算法进行训练的数据集通常并不关注这些多样性的度量,这确实很重要,”未参与研究的Obermeyer补充道 。
阿根廷的研究人员专注于AI在医学中最流行的应用之一:分析图像以尝试进行诊断 。他们检查的系统负责分析胸部区域的X射线图像,以检测是否存在14种医疗状况,包括疝气,和心脏扩大 。
【当训练数据按性别倾斜时 AI系统在诊断疾病方面更差】

    推荐阅读