第427集:《AI辅助司法的伦理决策边界》(1 / 2)

算法之下的天平

市中级人民法院的会议室里,投影仪的光束在白墙上投出一行刺眼的文字——“郭明寻衅滋事案,AI量刑建议:有期徒刑10个月”。刑事审判庭庭长陈谨捏着卷宗的手指微微泛白,卷宗里被告人郭明的供述与证人证言她逐字核对过,案情清晰且有自首情节,按过往判例最多判6个月,可屏幕上那个由算法生成的数字,正像一块巨石压在她心头。

“陈庭,这是系统根据近三年同类案件生成的最优解。”技术科的年轻工程师小李推了推眼镜,语气里带着对AI的笃定,“系统比对了217个相似案例,剔除了3个情节不符的,最终给出的建议偏差率低于5%。”

“偏差率?”陈谨抬眼,目光扫过在场的法官们,“你们谁能告诉我,这217个案例里,有多少个被告人像郭明一样是外来务工者?又有多少个有固定职业、本地户口?”

会议室瞬间陷入沉默。小李愣了愣,手指在键盘上快速敲击,屏幕上的页面跳转数次,最终停在一片空白的统计栏——“系统未记录被告人社会背景相关数据分类”。可陈谨清楚,上个月她审理的一起类似案件,被告人是本地企业主,AI给出的量刑建议是缓刑,理由是“被告人社会贡献度较高,适用缓刑不致危害社会”。同样的案情,不同的“隐形变量”,算法给出的结果天差地别,这就是他们一直依赖的“智能量刑系统”背后,那个看不见摸不着的“算法黑箱”。

散会后,陈谨把卷宗重重摔在办公桌上。窗外的法桐叶被秋风卷落,像极了那些在算法里被模糊掉的个体差异。她想起三年前系统刚上线时,大家都以为找到了提高审判效率的“神器”,可随着使用深入,越来越多的异常浮出水面:盗窃案中,无固定住所的被告人量刑建议普遍比有房者重10%;交通肇事案里,从事体力劳动的被告人被认定“悔罪态度差”的比例是白领的3倍。这些看不见的偏见,正通过冰冷的算法,悄悄扭曲着司法的天平。

“陈庭,省高院的林教授来了。”书记员小张的声音打断了她的思绪。陈庭抬头,看到门口站着一位头发花白的老人,手里拎着一个鼓鼓囊囊的公文包,正是省高院牵头成立的“司法技术伦理审查团队”负责人林则明教授。

“林教授,您可算来了。”陈庭起身迎上去,把郭明案的卷宗递过去,“您看看这个AI量刑建议,再对比下上个月那个企业主的案子,这明显不对劲。”

林则明接过卷宗,戴上老花镜仔细翻看,眉头渐渐皱起。“我们在全省12个中院调研,已经发现了7起类似案例。”他从公文包里掏出一份厚厚的报告,封面印着“AI辅助司法伦理风险评估”,“算法黑箱的问题比我们想象的更严重,系统训练时用的历史数据里,本身就隐含了过去司法实践中可能存在的隐性偏见,比如对不同职业、户籍被告人的量刑差异,算法把这些偏见当成了‘规律’,反而放大了不公。”

陈庭的心沉了下去。她想起自己刚当法官时,老庭长告诉她,每一份判决都要经得起良心和时间的检验。可现在,当算法开始介入量刑,那些看不见的代码,正在悄悄改写“良心”的标准。

“我们必须尽快出台规范,不能让技术模糊了司法公正的边界。”林则明的语气坚定,“团队已经草拟了《AI辅助司法伦理规范》,这次来,就是想听听一线法官的意见。”