“热门不代表合法合规。”李薇反驳道,“上个月有个用户用你们的AI写了遗嘱,去世后子女发现遗嘱里把房产留给了没血缘关系的人,原来是用户输入信息时填错了,AI没做任何提醒。现在子女已经起诉了你们平台,这个责任你们担得起吗?”
王磊的语气软了下来,但还是不甘心:“那我们的损失怎么办?用户要的是方便、便宜,你们的规范一出来,我们还怎么活?”
“不是让你们活不下去,是让你们走得更稳。”周明宇拿出一份数据报告,“我们调研发现,70%的用户其实愿意为‘人工复核’付费。你们可以把AI定位成‘法律助手’,而不是‘律师’,比如AI先解读法条,再让人类律师做补充,这样既降低了用户成本,又保证了服务质量。”
经过反复沟通,平台终于松了口。团队趁热打铁,制定出了《AI法律咨询伦理规范》,里面明确写着:AI仅限提供基础法律知识解答,禁止起草重要法律文书、代理诉讼;涉及婚姻、刑事等复杂案件,AI需强制弹出“建议咨询人类律师”的提示,并提供附近律所的联系方式;所有AI回复的末尾,必须标注“仅供参考,不具备法律效力”。
规范实施的那天,林夏正好又打开了“法助AI”。这次,当她输入“想离婚,怎么争取抚养权”时,AI没有直接给方案,而是先解读了《民法典》里关于抚养权的条款,然后弹出一个红色的提示框:“您的问题涉及婚姻家庭纠纷,建议咨询专业律师。以下是您所在区域的3家正规律所,点击可查看联系方式。”
就接通了律师的电话。律师耐心地问了她分居的时间、女儿的年龄、双方的经济状况,还提醒她要收集丈夫出轨的证据,甚至帮她预约了免费的线下咨询。
挂了电话,林夏心里的石头终于落了地。她看着屏幕上“仅供参考,不具备法律效力”的提示,突然觉得很安心——原来技术的边界,才是对用户最大的保护。
三个月后,“技术伦理治理中心”收到了一封来自林夏的感谢信。信里说,她顺利离婚,争取到了女儿的抚养权,现在已经重新找了工作,生活慢慢回到了正轨。信的末尾,她写了一句话:“谢谢你们,让AI成了真正的‘助手’,而不是‘陷阱’。”
周明宇把信贴在了办公室的墙上,旁边还贴着其他用户的反馈——有超市老板用“AI+人工”的模式拟定了新的供货合同,再也没出过纠纷;有大学生在律师的帮助下,成功拿到了被拖欠的工资;还有那位因为邻里纠纷住院的老太太,在居委会和律师的调解下,跟邻居和好了。
“你看,这就是我们做这件事的意义。”周明宇指着墙上的信,对团队成员说,“技术可以低成本,但不能低责任。代码里的每一行规则,都该藏着对人的尊重,这才是真正的‘正义’。”
窗外,阳光透过玻璃洒进来,落在那些信纸上,也落在团队成员的脸上。张凯打开电脑,正在优化AI的提示算法,他要让“建议咨询人类律师”的提示更精准;李薇在整理新的投诉数据,发现规范实施后,纠纷率已经下降了60%;周明宇则在准备下一次调研,他们还要去更多的城市,把这份规范推广出去。
林夏不知道的是,她的那封感谢信,后来被印在了《AI法律咨询伦理规范》的宣传册上。册子的封面,是一行醒目的字:“技术的温度,藏在它知道自己该停在哪里。”