谁应对由AI造成的医疗错误负责?

机器学习算法(MLAS)以闪电速度分析了大量数据。现在可以利用人类对人类进行适当评估的数据集,以做出挽救生命的医疗决策。燃烧的问题是是否应该允许AI做出这些选择。而且,如果是,它如何影响医生,患者以及当前的法律和监管框架?

瑞士苏黎世卫生道德与政策实验室的专家只是一群人开始引起对AI使用的警报。一个最近发表的论文表示担心因MLA内部的偏见而导致的患者可以被剥夺患者。

问题的症结围绕着如何发展MLA。该论文表明,自动化系统主要是使用从男性高加索患者开采的数据进行培训的。这种“缺乏多样性”会导致造成错误的偏见。因此,边缘化群体可能最终患有更高的医疗衰竭率。

另一个压力点是由MLA所利用的“神经输入”内的现有人类偏见产生的。这些大规模数据集为AI模仿或重新表达现有的人类偏见而产生了潜力。

可能从人类到AI的各种偏见包括偏见高体重指数(BMI),,,,种族或族裔, 和性别歧视这是高度令人不安的,因为研究人员已经提出AI能够做出生死决策。

在英国,最近的研究人员发表了一项研究在其中,AI正确预测了比传统方法更好地预测过早死亡率。研究人员认为,这可以允许算法使用“人口统计学,生物识别,临床和生活方式因素”,以挑出将受益于早期干预的患者。但是,任何因遗传偏见引起的患者未能指出的患者都可能导致特定组的治疗。

另一项研究表明AI可以成功确定患有30天或150天死亡率高风险的癌症患者。根据这项研究,AI可以在患者接受昂贵的化疗之前用来标记患者。这个想法是,在其他地方分配昂贵的治疗可能会更好。

关于全球市场的研究,该市场已经进行了有关医疗机器人的研究,告诉Privacy.com“报告表明,已建议将严重出血的癌症患者患有可能导致出血恶化的药物。”

在另一种情况下,一种旨在安全出院的AI算法,旨在预测哪些肺炎患者可以安全出院 - 错误地决定患有哮喘病史的患者死亡风险较低。 RGM告诉我们:

“这是因为培训数据是正确的,因为哮喘患者通常去了ICU,接受了更具侵略性的护理,因此死亡的可能性较小。算法不了解这一点,并使用了规则,如果某人患有哮喘,则应将其视为门诊病人。”

哈佛大学的研究助理Shailin Thomas注意“即使是最好的算法也将在某些时间内产生潜在的实质性责任。”这种固有的责任潜力会引起难题,因为很难确切理解谁应该对最终保证的错误百分比负责。

Karl Foster,法律总监布莱克·摩根,告诉Privacy.com,目前,临床医生将保持责任:

“最终,临床医生对患者负责;这是医学界的压倒性原则。使用AI不太可能改变该职位,当然在短期内”

“如果我们想象AI询问测试结果并确定特定结果会增加患者在患者中开发特定疾病的风险,最终 - 目前 - 临床医生需要进一步研究。临床医生将继续根据其他临床信息来解释AI的数据,并在最佳治疗中做出决定。”

精神科医生和数据科学家Carlo Carandang另一方面,认为责任可能与制造商有关:

“ AI应用程序将被视为医疗设备,因此此类临床AI应用程序的性能将成为建造它们的公司的责任,以及负责监督此类医疗设备的FDA和其他监管机构。”

全球市场研究(RGM)告诉Privacy.com,尽管目前临床医生似乎仍然承担责任“如果损害是由不正确的内容引起的,而不是不当使用算法或设备,那么责任制必须涉及那些设计并质量保证的人。”RGM指出“这条线可能不太容易定义。”

托马斯(Thomas)担心,让公司负责,可能会导致他们完全退出生产算法。这可能对医疗行业非常有害,因为AI已经证明了其潜力。

例如,在中国,研究人员使用算法检测脑肿瘤比美国最好的医生更成功。这些突破可以挽救生命 - 但前提是生产AI的公司可以这样做而无需担心。

迈克尔·卡森(Michael Carson),高级律师弗莱彻斯律师认为,在英国,目前的立法适合处理医疗AI的出现。卡森告诉Privacy.com:

“我们应该将人工智能视为另一种医院设备。AI犯的任何错误或误诊都应作为医疗疏忽主张,而AI只是医院使用的工具。

“该法律可能已经足够强大,已经足以应对来自AI故障的问题。实际上,AI可以看作是设备和软件的另一种融合,这已经在整个国家卫生服务局中很普遍。”

但是,RGM指出,当前的立法可能无法完全区分“诊断技术故障存在错误的情况”以及由“使用不准确或不适当的数据。”

归根结底,AI只能对其提供的数据作用。如果该数据是不正确或有偏见的,则在输入之前 - 很难理解制造商如何出现故障。另一方面,似乎很难责怪医疗专业人员从手中做出的决定。

福斯特告诉Privacy.com,美国和欧洲当前的监管制度”当前,不要预料机器学习软件或数据集设计用于进化的位置。”结果,围绕责任的问题可能会随着时间的流逝而发展,监管机构将需要保持灵活的变化。

谁应该对MLA负责是一个复杂的问题,并且已经存在一些分歧。似乎可以肯定的是,由于医疗AI的新兴立法者需要保持警惕,并且必须迅速采取行动以确保法规准备应对。经常,当新技术出现时,突破性过早地打入了市场,立法者被迫追赶。

AI最大的问题之一是,临床医生并不总是了解MLA为何做出决定。这是因为AI使用大量数据集做出选择,而人类无法处理。 RGM解释说,由于成功率提高:

“医生可能会发现自己是错误地证明了AI做出的决定,因为有据可查的概念称为自动化偏见。在这里,人类可能具有比他们可能相信自己更信任的机器的倾向。”

这种潜力极为令人担忧,尤其是当专家警告说算法可能会预先编程的人类偏见可能导致渎职行为时。