第439集:《AI辅助诊疗的伦理责任划分》(2 / 2)

“必须给AI划清边界。”赵磊在最终的规则草案上写下第一条,“AI辅助诊疗系统仅为医疗辅助工具,最终诊断需由执业医师确认。”他想起在儿童医院见到的场景:年轻医生对着AI报告反复核对,而经验丰富的老专家,会先问家长“孩子昨晚睡得好吗”“有没有接触过过敏物质”,再去看机器给出的结论。

规则草案的第二条,卡在了“准确率标准”上。星瀚科技坚持95%的达标率过高,会增加研发成本;但周明拿出的一组数据让所有人沉默:当AI诊断准确率低于95%时,医生的人工纠错率会下降40%——机器给出的“大概率正确”答案,会潜移默化地削弱医生的判断力。最终,95%的硬性标准被写入规则,且要求每季度由第三方机构重新测试。

最棘手的是责任划分。赵磊的团队曾考虑过“按比例担责”,但很快发现行不通:如果AI和医生各担50%责任,患者该找谁索赔?研发方会不会以“医生未完全遵循系统建议”为由推诿?经过七次修改,最终确定“误诊后由医疗机构承担主要责任”——这不是否定AI的价值,而是明确医院作为诊疗主体的义务,就像外科医生不能因为手术刀有瑕疵,就逃避手术失误的责任。

规则发布那天,林默在办公室里反复研读。当看到“禁止在重症、急诊领域单独使用AI辅助诊疗”时,她想起小宇躺在ICU里的样子;读到“建立AI诊疗数据差错追溯机制”时,她点开系统后台,第一次看到完整的诊断决策链——原来当时AI忽略了小宇的运动史,是因为输入界面里“近期活动情况”被设置为非必填项。

三个月后,小宇康复出院。他的父母送来锦旗,却没有再提AI的事。林默带着新入职的医生查房时,会先让他们独立分析病例,最后才打开“医镜”系统比对。有实习生问:“既然要人工复核,那AI还有什么用?”

周明指着电脑屏幕上的影像报告,AI用不同颜色标注出可疑区域,但最终的诊断结论栏是空的,等待医生填写。“它就像显微镜,”老医生说,“能帮我们看到更细微的东西,但决定怎么治疗、怎么用药的,永远得是人。”

星瀚科技也根据规则做了系统升级。陈锐在一次行业会议上展示新功能:当医生试图在急诊场景单独使用AI诊断时,系统会自动弹出警告窗口;每一份诊断报告的末尾,都新增了“数据局限性说明”,列出可能遗漏的临床信息。“以前我们总想着追求更高的准确率,”他坦言,“现在才明白,告诉用户AI‘不能做什么’,比吹嘘‘能做什么’更重要。”

赵磊偶尔会去医院调研。他见过医生在AI报告上密密麻麻的批注,见过患者拿着打印出来的追溯数据咨询,也见过研发团队和临床医生一起修改算法参数。有一次,他在儿科门诊看到林默,她正对着一份AI诊断为“普通感冒”的报告皱眉——系统没注意到孩子眼睑轻微水肿,而这是肾炎的早期信号。

“规则不是为了限制AI,”赵磊后来在一次访谈中说,“而是为了让技术守住生命的底线。当算法的刻度遇上生命的温度,我们要做的,是让冰冷的数据,始终服务于滚烫的生命。”

那天傍晚,林默完成最后一份诊疗记录,关闭“医镜”系统时,屏幕上弹出一行提示:“今日共辅助诊断32例,人工修正4例,已生成差错分析报告。”她点开报告,仔细看完每一条修正理由,然后在笔记本上写下:“明天晨会,和团队讨论如何优化儿童肾病的AI识别特征。”

窗外的晚霞透过窗户,洒在办公桌上。那份《AI辅助诊疗伦理责任规则》被压在病历夹最上面,边角已经有些磨损,但每一条规则议与反思,正化作让技术更安全的基石,在每一次诊疗中,守护着生命的尊严。