人工智能造成的醫療失誤誰該承擔責任?

機器學習算法 (MLA) 以閃電般的速度分析大量數據。曾經對於人類來說太大而無法正確評估的數據集現在可以用來做出挽救生命的醫療決策。緊迫的問題是是否應該允許人工智能做出這些選擇。如果是的話,它對醫生、患者以及當前的法律和監管框架有何影響?

瑞士蘇黎世健康倫理與政策實驗室的專家只是開始對人工智能的使用發出警報的一群人。一個最近發表的論文表示擔心由於 MLA 內部的偏見,患者可能無法獲得重要的治療。

問題的關鍵在於如何制定工作重點。該論文表明,自動化系統主要是使用從白人男性患者身上挖掘的數據進行訓練的。這種“缺乏多樣性”可能會導致偏見,從而導致錯誤。因此,邊緣化群體最終可能會遭受更高的醫療失敗率。

另一個壓力點是由 MLA 利用的“神經輸入”中現有的人類偏見造成的。這些海量數據集為人工智能創造了模仿或重新表達現有人類偏見的潛力。

可能從人類傳遞到人工智能的偏見包括對高體重指數 (BMI),種族或族裔群體, 和性別歧視這非常令人不安,因為研究人員已經表明人工智能能夠做出生死決定。

英國研究人員最近發表了一項研究其中人工智能比傳統方法更好地正確預測過早死亡。研究人員認為,這可以讓算法利用“人口統計、生物識別、臨床和生活方式因素”來挑選出那些將從早期干預中受益的患者。然而,由於遺傳偏見而未能查明患者,可能會導致特定群體無法接受治療。

另一項研究表明人工智能可以成功識別 30 天或 150 天死亡風險較高的癌症患者。根據這項研究,人工智能可以用來在患者接受昂貴的化療之前對其進行標記。這個想法是,最好將昂貴的治療分配到其他地方。

全球市場研究,對醫療機器人進行了研究,告訴 eeshanaviation.com“有報告表明,有嚴重出血的癌症患者被推薦使用一種可能導致出血惡化的藥物。”

還有一次,旨在預測哪些肺炎患者可以安全出院的人工智能算法錯誤地認為有哮喘病史的患者死亡風險較低。 RGM 告訴我們:

“這是因為從訓練數據來看,這是正確的,因為哮喘患者通常會去重症監護室,接受更積極的護理,因此死亡的可能性較小。算法不理解這一點,並使用了這樣的規則:如果有人患有哮喘,他們應該被視為門診病人。”

謝林·托馬斯 (Shailin Thomas),哈佛大學研究員注意到“即使是最好的算法,在一定比例的情況下也會產生潛在的重大責任。”這種固有的責任潛力造成了一個難題,因為很難準確理解誰應該對最終保證的錯誤百分比負責。

Karl Foster,法律總監布萊克·摩根,告訴 eeshanaviation.com,目前臨床醫生仍將承擔責任:

“最終,臨床醫生要對患者負責;這是醫學界的首要原則。人工智能的使用不太可能改變這一立場,當然在短期內也是如此。”

“如果我們想像人工智能詢問測試結果並確定特定結果會增加患者患特定疾病的風險,那麼最終(也是目前)臨床醫生需要進一步調查。臨床醫生仍將負責根據其他臨床信息解釋人工智能提供的數據,並就最佳治療做出決定。”

精神病學家兼數據科學家 Carlo Carandang另一方面,認為責任可能由製造商承擔:

“人工智能應用程序將被視為醫療設備,因此此類臨床人工智能應用程序的性能將由構建它們的公司、FDA 和監督此類醫療設備的其他監管機構負責。”

全球市場研究 (RGM) 告訴 eeshanaviation.com,儘管目前臨床醫生似乎仍需承擔責任“如果傷害是由不正確的內容而不是算法或設備的不當使用造成的,那麼責任必須由那些設計並保證其質量的人承擔。”RGM 指出“這條線可能沒那麼容易定義。”

托馬斯擔心,讓公司承擔責任可能會導致他們完全放棄算法的開發。這可能對醫療行業極為不利,因為人工智能已經證明了其潛力。

以中國為例,研究人員使用算法來檢測腦腫瘤比全國最好的醫生更成功。這些突破可以挽救生命——但前提是生產人工智能的公司能夠在不持續擔心責任的情況下做到這一點。

邁克爾·卡森 (Michael Carson),資深律師弗萊徹律師事務所認為英國現行立法適合應對醫療人工智能的出現。卡森告訴 eeshanaviation.com:

“我們應該將人工智能視為醫院的另一台設備。人工智能的任何錯誤或誤診都應作為醫療過失索賠處理,人工智能只是醫院使用的工具。

“該法律可能已經足夠強大,可以處理人工智能故障引起的問題。實際上,人工智能可以被視為設備和軟件的另一種混合體,它已經在整個國家醫療服務體系中普遍存在。”

然而,RGM 指出,現行立法可能不足以區分“技術故障診斷錯誤的情況”以及由以下原因引起的案件“使用不准確或不適當的數據。”

歸根結底,人工智能只能根據給定的數據採取行動。如果這些數據在輸入之前是不正確或有偏見的,那麼很難理解製造商為何會犯錯。另一方面,似乎很難責怪醫療專業人員做出的決定。

福斯特告訴 eeshanaviation.com,美國和歐洲目前的監管制度“目前還沒有預期軟件或數據集旨在進化的機器學習。 ”因此,圍繞責任的問題可能會隨著時間的推移而演變,監管機構需要保持靈活性以應對變化。

誰應該對司法協助負責是一個複雜的問題,並且已經存在一些分歧。有一點似乎是肯定的,由於醫療人工智能的興起速度很快,立法者需要保持警惕,必須迅速採取行動,以確保法規做好應對準備。很多時候,當新技術出現時,突破就會過早地衝擊市場,立法者被迫迎頭趕上。

人工智能的最大問題之一是臨床醫生並不總是理解 MLA 做出決策的原因。這是因為人工智能使用人類無法處理的海量數據集做出選擇。 RGM 解釋說,由於成功率提高:

“醫生可能會發現自己錯誤地證明了人工智能做出的決定是正確的,因為有一個被稱為自動化偏見的有據可查的概念。在這裡,人類可能傾向於信任機器,而不是信任自己。”

這種潛力非常令人擔憂,尤其是當專家警告算法可能會因人類偏見而預先編程時,這可能會導致醫療事故。