推动人工智能在医疗保健中的发展


三年前,人工智能先驱 Geoffrey Hinton说:“我们现在应该停止培训放射科医生 。完全显而易见的是,五年之内,深度学习将比放射科医生做得更好 。”
如今,全球数百家新兴公司都在尝试将深度学习应用于放射学 。然而,被AI取代的放射科医生的数量大约为零 。(实际上,它们在世界范围内都短缺 。)
至少就短期而言,该数字可能保持不变 。事实证明,放射学比欣顿和其他许多人想象的要自动化得多 。对于一般医学而言,情况同样如此 。有概念的许多证据,如的自动诊断从胸部X射线,但在其中深学习(机器学习技术,它是目前最占优势的方法来AI)已经实现了变换和改进出奇少数情况下经常答应了 。
首先,有关深度学习有效性的实验室证据并不像看起来那样可靠 。当使用AI的机器胜过人类的机器时,正面的结果往往会引起媒体的广泛关注,而当机器的表现不如人类时,负面的结果则很少在学术期刊上报道,甚至更少的媒体报道 。
同时,越来越多的文学作品表明,深度学习从根本上容易受到“对抗性攻击”的攻击,并且常常容易被虚假的联想所欺骗 。例如,如果一辆翻倒的校车碰巧被雪包围,可能会误认为是扫雪机 。用几片胶带改变了停车标志,因此深度学习系统将其误认为是速度限制 。如果这些问题在机器学习社区中广为人知,那么它们的含义在医学界就不太为人所理解了 。
例如,在X射线图像上进行训练以进行诊断决策的深度学习算法可以轻松地检测用于制作图像的成像机 。考虑这种假设情况:医院使用两种不同型号的X射线机-一种便携式,一种安装在固定位置 。因病情卧床不起的患者必须使用便携式机器在床旁成像 。这意味着机器的选择与条件的存在相关 。而且,由于AI算法对使用哪台机器高度敏感,因此它可能会无意中误认为与机器有关的基本条件信息 。在医院中始终使用便携式机器的相同算法可能会产生混淆的决定 。
实际上,深度学习仅在狭义的技术意义上(即在神经网络中使用了多少“层”的准神经元)是深度的,而不是在概念上 。深度学习系统擅长在训练数据中查找关联,但无法区分因果相关和意外相关,例如成像设备上的模糊 。虚假的联想可能会被过度加权 。
例如,在通过图像诊断皮肤癌时,皮肤科医生只有在怀疑皮肤癌的情况下才可以使用尺子来确定皮肤的大小 。这样,尺子的存在与图像数据中的癌症诊断相关联 。AI算法可以很好地利用这种关联而不是病变的视觉外观来做出癌症决策 。但是统治者实际上并没有引起癌症,这意味着该系统很容易被误导 。
【推动人工智能在医疗保健中的发展】

    推荐阅读