教师犹豫了两秒,没有接管,系统顺利完成制动。但当第二个场景——“暴雨天,前方有失控的油罐车,左侧是人行道(有3名行人),右侧是护栏”出现时,教师突然按下了接管按钮,试图向左避让。
“系统检测到接管操作可能造成3名行人伤亡,风险值超过阈值,已限制转向角度,”监控屏幕上弹出警告信息,同时车内的语音提示响起,“已为您调整转向轨迹,建议优先选择右侧避让,伤亡风险值降低68%。”
教师愣了一下,最终听从了系统的建议。当车辆平稳停在护栏旁时,她长舒了一口气。测试结束后,她对观察员说:“其实我当时只想着避开油罐车,没注意到人行道上的行人——如果没有系统的提醒,我可能会做出错误的决定。”
接下来的测试中,不同的乘客展现出了不同的决策倾向:年轻的程序员更愿意相信系统的判断,而有十年驾龄的出租车司机则更倾向于自主接管。但无论哪种情况,“远航-III”的V3.8版本都能在0.05秒内完成风险评估,并给出合理的建议。
“看来‘人工干预的伦理边界检测’起到了作用,”林砚看着实时统计数据,脸上露出了笑容,“但还有一个问题——如果乘客是未成年人,或者有精神疾病,系统该如何判断是否允许接管?”
陈则指着屏幕上的一条数据,那是一位16岁学生的测试记录。当系统检测到乘客年龄未满18岁时,自动限制了接管权限,仅允许在“低速、无第三方风险”的场景下进行部分操作。“我们接入了身份认证系统,结合面部识别判断乘客的行为能力,”陈则解释道,“但这又涉及到‘隐私保护’的伦理问题——系统收集乘客的生物信息,如何确保不被滥用?”
这个问题让监控室里的气氛安静下来。林砚打开了系统的隐私设置界面,屏幕上显示着“数据本地存储”“实时加密传输”“使用后自动删除”等选项。“我们已经按照《个人信息保护法》的要求,对生物信息进行了脱敏处理,”她指着一行代码,“所有身份认证数据都不会上传到云端,仅在本地用于判断乘客行为能力,测试结束后立即删除。”
陈则点点头,却突然想起伦理委员会提出的另一个担忧:若自动驾驶系统的伦理决策标准被黑客篡改,该如何防范?他调出系统的安全日志,最近一周内,有三次来自境外的恶意攻击尝试,都被防火墙拦截。“我们需要加入‘伦理决策算法的完整性校验’,”陈则说,“每次启动前,系统都要自检算法是否被篡改,一旦发现异常,立即切换到备用伦理模块,并上报监管平台。”
林砚立刻记录下这个需求。此时,监控屏幕上出现了最后一位测试者的场景:一位孕妇乘坐“远航-III”时,前方突然发生连环追尾,系统检测到唯一的避险路线是撞上路边的绿化带,但可能导致孕妇轻微颠簸。“系统建议:缓慢撞向绿化带,预估孕妇受伤概率12%,无生命危险;若等待救援,后方车辆追尾概率89%,伤亡风险值9.5,”语音提示响起,同时屏幕上弹出“是否同意避险方案”的选项。
孕妇犹豫了片刻,点击了“同意”。车辆缓慢驶向绿化带,最终平稳停下。测试结束后,她对观察员说:“我当时很担心颠簸会影响胎儿,但系统给出的风险评估让我放心——原来伦理决策不只是冷冰冰的数字,还考虑到了特殊人群的需求。”
当天晚上,林砚和陈则坐在实验室里,整理着测试数据。屏幕上的图表显示,“远航-III”V3.8版本的伦理决策准确率达到了98.7%,较上一版本提升了6.2个百分点,人工干预的有效配合率也达到了91.3%。
“明天就能提交伦理审查了,”陈则看着屏幕上的数据,脸上露出了疲惫却欣慰的笑容,“但我们还要考虑后续的迭代——比如不同文化背景下的伦理差异,还有法律对‘伦理决策失误’的责任界定。”
林砚点点头,打开了一份新的文档,标题是《自动驾驶伦理决策长期优化方案》。她在文档里写下第一句话:“伦理决策不是静态的标准,而是随着社会价值观、科技发展和法律体系不断演进的动态框架——自动驾驶系统不仅要遵守当下的伦理准则,更要具备适应未来变化的能力。”
窗外的夜色渐深,测试场的指示灯再次亮起,“远航-III”正在进行新一轮的模拟测试。林砚望着那辆在夜色中穿梭的汽车,突然想起陈则曾经说过的话:“自动驾驶的终极目标,不是取代人类驾驶员,而是通过科技让每一次出行都更安全、更公平——而伦理决策,就是实现这个目标的基石。”
她关掉文档,拿起咖啡杯走向窗边。月光下,“远航-III”的车灯像两道温暖的光,照亮了前方的道路。林砚知道,关于自动驾驶伦理决策的探索,还有很长的路要走,但每一次代码的优化、每一次测试的成功,都在让这条路上的灯光更加明亮。