第383集:《AI翻译的伦理中立性准则》(2 / 2)

老周却摇了摇头:“这么改,算法的‘流畅度评分’会掉。之前我们做的是‘最优解推荐’,现在改成‘多选项并列’,用户体验报告肯定不好看。”

“好看重要还是客观重要?”林野把笔拍在桌子上,“去年有个留学生,因为算法把‘抗议活动’译成‘暴乱’,写论文时被导师质疑立场有问题,差点毕不了业。咱们要是只盯着流畅度,就是在帮算法杀人。”

争论持续了三天,最终确定了“多版本翻译”的规则:凡是在政治、宗教领域有两个及以上常见释义的词汇,算法必须列出所有选项,并标注每个选项的使用场景(如“适用于中立报道”“多见于官方声明”),且各选项的展示顺序随机,避免用户先入为主。

可新的问题又冒了出来。测试时,苏晓用沙特阿拉伯的Ip地址输入“女性权益”,算法虽然给出了三个翻译选项,但在例句推荐里,自动匹配的都是“该国女性权益正逐步改善”这类偏向正面的句子;换成伊朗的Ip,例句就变成了“女性权益仍需进一步提升”。

“地域标签还在起作用。”林野盯着后台代码,发现算法里藏着一个“地域情感权重”的隐藏模块,会根据不同地区的政策倾向,调整例句的情感色彩。他毫不犹豫地把这个模块删掉,却弹出一行警告——“删除该模块将导致地域适配性下降,用户留存率预计降低15%”。

“删。”陈砚不知什么时候站在了门口,手里拿着一份刚签好的文件,“我已经跟董事会说了,宁可少赚15%的钱,也不能让星译变成带偏见的传声筒。”

那天晚上,测试组所有人都留了下来。老周重新训练了例句库,把所有带情感倾向的句子全部筛掉;苏晓设计了“地域盲测”机制,算法在处理文本时,会自动屏蔽用户的Ip地址和地理位置信息;林野则写了一份《AI翻译伦理准则》,里面明确写着:“禁止根据用户地域、信仰调整翻译倾向;争议性词汇需提供多版本选择;语义中立优先于翻译流畅度”。

准则发布前的最后一次测试,林野用了一份最难的文本——关于耶路撒冷归属问题的新闻报道。算法没有再给任何偏向性的翻译,“圣城”“争议地区”“历史名城”三个选项并列展示,例句里既没有“理应归属某国”,也没有“某国非法占据”,只有客观的事实陈述。

“成了。”苏晓兴奋地拍着手,屏幕上的中立性评分第一次跳到了100分。

《AI翻译伦理准则》发布那天,星译科技上了热搜。有人在评论区说:“终于不用再被算法‘教’着怎么看世界了”;也有人质疑,没有地域适配性,翻译会不会变得生硬。

林野在接受采访时,举了个例子:“就像两个人在桥上对话,桥不能帮左边的人放大声音,也不能帮右边的人捂住耳朵。我们要做的,只是把两边的话原原本本地传过去,让他们自己听,自己判断。”

那天晚上,林野收到一封邮件,是三年前那个因为算法偏见差点毕不了业的留学生发来的。邮件里说,他现在在一家国际组织做翻译,看到《AI翻译伦理准则》时,特意用星译V9翻译了一份关于难民问题的报告,“这一次,我终于能给不同国家的同事,看同一份没有偏见的文本了”。

林野看着邮件,想起陈砚说过的那句话——翻译是桥,不是墙。而他们这群人,就是在给这座桥刻上中立的刻度,让每一个走在桥上的人,都能看见同一片河。

窗外的天已经亮了,测试室里的咖啡又续了新的一壶,三十块显示屏依旧亮着,只是现在滚动的文本里,再也没有了那些藏在代码里的偏见。