人工智能比医生表现更好的“夸大”说法引发患者安全风险担忧

许多研究声称,人工智能在解读医学图像方面与人类专家一样好(甚至比人类专家更好),但这些研究的质量很差,而且被认为被夸大了,给数百万患者的安全带来了风险。《英国医学杂志》的研究人员警告说。

他们的发现引起了人们对支持许多此类研究的证据质量的担忧,并强调了改进这些研究的设计和报告标准的必要性。

人工智能(AI)是一个创新和快速发展的领域,有潜力改善病人护理和减轻负担过重的卫生服务。深度学习是人工智能的一个分支,在医学成像领域表现出了特殊的前景。

已发表的关于深度学习的研究数量正在增长,一些媒体标题声称其表现优于医生,这助长了快速实施的宣传。但是这些标题背后的研究方法和偏倚的风险还没有得到详细的检查。

为了解决这个问题,一组研究人员回顾了过去10年发表的研究结果,比较了深度学习算法在医学成像中的表现与专家临床医生。

他们发现只有两个符合条件的随机临床试验和81个非随机研究。

在这些非随机研究中,只有9项是前瞻性的(一段时间内跟踪和收集个人信息),只有6项是在真实世界中进行的测试。临床设置。

比较组中人类专家的平均人数只有4人,而获得原始数据和代码(以便对结果进行独立审查)的机会受到严重限制。

超过三分之二(81项中的58项)的研究被认为存在偏误(研究设计中可能影响结果的问题)的高风险,并且对公认的报告标准的遵守程度通常很低。

四分之三(61项研究)表示AI的表现至少可与临床医生相媲美(或优于),只有31项(38%)表示需要进一步的前瞻性研究或试验。

研究人员指出了一些局限性,比如可能会遗漏研究,以及专注于深度学习医学成像研究,因此结果可能不适用于其他类型的人工智能。

然而,他们说,目前存在着许多有争议的夸大的主张,认为与临床医生相当(或优于),这在社会层面对患者安全和人口健康构成了潜在风险。

过度承诺的语言使研究容易被媒体和公众曲解,结果可能提供不适当的治疗,而不一定符合病人的要求;最佳利益”;他们警告说。

确保我们建立一个高质量、报告透明的证据基础,向前推进,才能最大限度地保障患者的安全。他们的结论。

参考文献:人工智能与临床医生:对医学成像中深度学习研究的设计、报告标准和主张的系统审查作者Myura Nagendran, Yang Chen, Christopher A Lovejoy, Anthony C Gordon, Matthieu Komorowski, Hugh Harvey, Eric J Topol, John P A Ioannidis, Gary S Collins和Mahiben Maruthappu, 2020年3月25日,BMJ。

皇族电竞平台


皇族电竞手机版