在医院中,人工智能的使用正变得越来越普遍,可以帮助医护人员为患者提供更好的服务。但是,尽管员工了解AI系统在医疗保健中的作用,但很少有患者知道如何使用该技术。克洛伊·肯特(Chloe Kent)找出了AI如何挑战医学界限,并对从业人员是否有义务为患者解释这些人工智能的用途作出解释。
当涉及到医学界时,人工智能(AI)软件也许是最常用的机器学习技术。从诊断到出院计划决策,这些工具可以帮助告知医院和诊所(其中很多经常发现自己处于极限),可以加快患者护理的速度,从理论上讲,可以提供更好的服务。
但是,并不总是让患者清楚地知道AI在治疗中的使用情况。无论是使用算法来帮助可视化前列腺肿瘤还是鼓励临床医生谈论临终准备,在讨论患者下一步的工作时,医生硬盘的内部设计绝非易事。
在某些情况下,可以更好地保留此信息-毕竟,谁想知道由于计算机建议而提出了寿命终止安排?但是,在使用更多以诊断为中心的工具的情况下,许多患者将坚持认为他们有权知道在护理中使用了什么技术。如果未公开此信息,并且AI模型提出了错误的建议,会对他们的健康造成不利影响,该怎么办?
人工智能在医疗保健中的利弊
IPsoft全球医疗保健和生命科学业务负责人Vincent Grasso博士表示:“医疗专业人员之间似乎达成了广泛共识,在将AI广泛集成到医疗服务交付生态系统之前,需要解决AI带来哪些机遇和风险。
“从人工劳动力到数字/人工劳动力的迁移正在进行中,到目前为止,已证明其交付的价值超出了最初的预期。但是,医疗同意书要求向患者全面披露与计划干预相关的风险。”
无论是正面还是负面,Grasso谈到的风险都可能会受到AI的严重影响,而AI并非绝对可靠。它可能会做出错误的评估,并带有种族偏见。它在实验室中的操作通常与现实生活中的操作大不相同。
今年早些时候,来自Google Health的研究人员发现,可以在实验室条件下以90%的准确性诊断糖尿病性视网膜病的深度学习系统,只会导致诊所的延误和沮丧。这是一项相对新生的技术,注定会遇到麻烦,但是许多患者以及许多照料他们的专业人员都认为他们有权知道何时使用这些系统。
格拉索说:“涉及人工智能的治疗计划应由高层领导精心考虑。如果发现新发现的风险,则应制定缓解计划。患者应该完全了解与任何医疗保健互动有关的所有风险,以便在发生事故时做好最佳准备。”
人工智能几乎可以像医务人员一样具有影响力
当然,AI并不是在真空中运行,在没有任何监督的情况下抛出诊断。临床AI决策支持工具正是这样做的-支持而不是接管医生的决策。可以说,这可以通过缩短初次就诊与疾病诊断之间的间隔时间,使医疗保健更加“人性化”,以提供更高的护理水平。
但是某些决策支持算法几乎可以像人类医务人员一样具有影响力。例如,Ibex AI表示,其Galen平台可以扮演病理学家的助手角色,帮助弥补病理学家的短缺。尽管患者可能不太担心使用管理算法,该算法可以通过转录咨询内容来节省医生的笔记时间,但是当软件起着如此重要的作用时,他们的反应可能会有所不同。
未来完美(医疗保健)临床顾问兼AI负责人Venkat Reddy博士说:“我将以 EMRAD试验用于将AI用于乳房X线照相筛查的例子。它使用算法代替第二位放射线医师进行双重报告,而人类放射线医师在决定图像是典型还是非典型时拥有最终决定权。我希望在获得患者的知情同意的同时,在信息手册中明确说明在该程序的未来任何常规临床筛查中都应使用AI。”
但是,许多医学专业人员会坚持认为,每次使用决策支持算法时都需要征得同意,这太耗时,并且可能使有关护理的重要对话脱轨。花费太多时间来解释AI如何得出结论,而不是最终决定对患者意味着什么。
科尔尼(Kearney)健康和数字主管Paula Bellostas表示:“如果我是一名患者,而医生使用一种算法对我进行风险分层,则将我识别为潜在患者,甚至会竭尽全力进行临床决策支持以找出问题所在。最好的治疗方法是针对我的疾病,我不确定是否应该披露。
“作为患者,我们从来没有怀疑过坐在医生大脑内部的算法是怎么回事,所以为什么我们现在要说他们需要明确使用的工具,因为它是AI。而且,我不相信今天有任何医生会接受算法的结果而不会质疑和测试他们自己的知识。”
围绕算法决策的强烈反对在今年夏天成为了英国的头条新闻,当时由于新冠肺炎大流行而无法参加A级考试的学生被一个算法给一个分数。
该算法不仅考虑了单个学生的学习历史,还考虑了2017年至2019年间该学校的历史成绩分布,几乎有40%的成绩低于教师的评估。当然,这不是一个医学问题,但可以用来凸显整个决策算法中的一个关键缺陷–当人们认为这些工具的决策不公平时,人们会非常沮丧。
尽管A-levels算法存在明显的缺陷,但其遗产可能是医疗保健AI开发人员应注意的问题。
Reddy说:“一般来说,在AI方面,患者可能会有一些不信任感。” “由于目前的算法在基层医疗中被用作症状检查者,因此人们担心,因为提供者可以通过声明他们的算法只是在暗示可能性,而不给出可靠的临床意见来保护自己免受赔偿。”
如果患者被拒绝接受治疗,他们会感到自己需要治疗,并且他们知道该决策中涉及算法,这可能会特别令人困扰。因此,至关重要的是,医疗AI决策支持软件开发人员必须在实验室内部和外部条件下放心地支持他们的产品,然后才能将其商业推广。