第439集:《AI辅助诊疗的伦理责任划分》(1 / 2)

算法下的生命刻度

急诊室的红色警报灯第三次闪烁时,林默的白大褂已被冷汗浸出深色痕迹。监护仪发出的滴滴声里,12岁男孩小宇的血氧饱和度正以每分钟2%的速度下跌,而半小时前,AI辅助诊疗系统“医镜”给出的诊断报告还清晰地显示——“普通肺炎,建议口服抗生素观察”。

“准备气管插管!”主任医生周明的声音打破死寂,他一把扯下墙上的AI报告,揉成一团砸进垃圾桶,“谁让你们只看机器不做人工复核的?”林默的手指还停留在诊疗系统的操作界面上,屏幕里“医镜V3.0,诊断准确率98.7%”的标语像一记耳光,狠狠抽在她紧绷的神经上。

三天前,市一院刚成为“医镜”系统的试点单位。研发方星瀚科技的项目经理陈锐带着团队培训时,曾拍着胸脯保证:“这套系统整合了3000万份临床病例,影像识别比人类医生快10倍,准确率更是突破行业天花板。”当时林默看着屏幕上AI对早期肺癌的精准定位,确实动了心——儿科急诊永远人满为患,她曾连续48小时值班,在第17份胸片前差点漏过微小的气胸征象。

可现在,小宇的肺部CT影像在阅片灯上铺开,右侧肺叶边缘那片模糊的磨玻璃影,AI标注为“炎症渗出”,但周明用红笔圈出的区域里,清晰可见肺大泡破裂的细小裂口。“这是典型的自发性气胸合并感染,”周明的声音带着疲惫,“AI只认数据特征,却读不懂孩子消瘦的体型、近期剧烈运动的病史——这些‘非结构化信息’,才是临床诊断的关键。”

当晚,小宇的父母堵在医院办公室,母亲举着AI诊断报告的照片,声音嘶哑:“机器说只是普通肺炎,你们就信了?要是我儿子出事,你们谁来负责?”林默想解释系统的准确率参数,却被周明拦住。这位从医三十年的老医生沉默地拿出笔,在责任确认书上签下自己的名字:“是我们的疏忽,和机器无关。”

这句“和机器无关”,成了压垮骆驼的最后一根稻草。一周后,省卫健委接到三起类似投诉:某三甲医院AI将早期胃癌误诊为胃溃疡,某县医院依赖AI诊断延误心梗患者抢救,最严重的一起,是产妇因AI漏判胎盘早剥,新生儿重度窒息。

“责任归属必须明确。”卫健委会议室里,政策研究室主任赵磊将一叠投诉材料推到桌中央,“现在医院说是AI算法缺陷,研发方说是医生操作不当,患者夹在中间维权无门。再这样下去,谁还敢信智能医疗?”

参会的星瀚科技代表立刻反驳:“我们的系统每次更新都经过严格测试,诊断准确率达标率从未低于96%。医生过度依赖、不做人工复核,怎么能让我们承担责任?”

“96%的准确率,意味着每100个病人里,就有4个可能被误诊。”周明突然开口,他带来的病例夹里,装着小宇的诊疗记录,“对那4%的病人来说,这就是100%的灾难。AI不是上帝,它只是工具——工具出了错,该怪用工具的人,还是造工具的人?”

这场争论持续了整整两个月。赵磊的团队走访了12家试点医院,调取了近五年的AI诊疗数据,甚至模拟了200种临床紧急场景。他们发现,在重症、急诊领域,AI的误诊率会比普通门诊高出3倍——当系统遇到未收录的罕见病例时,会自动匹配最相似的常见病特征,这在生死攸关的急救中,往往是致命的。