“可用户不管这些,他们只知道‘绿镜’说他们能耗低,却要付高价电费,就觉得是我们的工具出了问题。”小陈急得直跺脚,“还有昨天刚收到的举报,有人说某物业公司用‘绿镜’采集的业主用电数据,对用电多的住户涨物业费,说这是‘能源使用歧视’。”
林砚突然意识到,“绿镜”的问题不只是技术层面,更涉及到伦理规范。团队当初只想着怎么让AI更精准、更高效,却忽略了数据使用的边界,也没考虑到审计结果可能被滥用。她立刻召集团队,决定制定一份《AI能源审计伦理规范》,从数据采集、分析、报告到结果应用,全流程明确标准。
制定规范的过程远比想象中艰难。关于数据误差率,张野坚持“误差率不超过3%”,认为这样才能保证数据可靠;但负责企业合作的王哥却反对:“很多中小企业的电表老旧,数据本身就有偏差,3%的标准太严格,他们根本达不到,会放弃使用‘绿镜’的。”
双方争执不下时,林砚想起了上次那家食品厂的厂长。她带着团队去工厂实地调研,看到车间里的老式电表指针还在跳动,记录的数据每小时都会有±5%的波动。“我们不能用实验室的标准要求所有用户,”林砚在调研笔记上写道,“误差率应该设定在5%,同时帮用户升级计量设备,从源头提高数据准确性。”
关于审计报告,李姐提出要“去专业化”,把“功率因数优化”改成“减少设备待机时间”,把“热损失率降低”改成“给管道包保温层”。团队还设计了“分级报告”,家庭用户看到的是图文并茂的节能小贴士,企业用户则能查看详细数据和改造方案。
最棘手的是数据采集和结果应用。团队在用户授权协议里加入了“一键选择”功能,用户可以明确勾选“允许采集实时数据”“仅允许采集每日总数据”或“拒绝采集非必要数据”,还能随时在APP里修改授权范围。针对“能源使用歧视”,规范里明确规定:“AI审计结果不得作为电价、物业费等费用调整的唯一依据,需结合多维度数据综合判定,且需向用户公示判定标准。”
规范初稿完成后,团队邀请了用户代表、能源专家和律师召开听证会。有位小区业主提出:“怎么保证你们不会偷偷采集数据?就算有授权,我们也看不到数据流向。”
林砚立刻安排技术团队开发“数据溯源功能”,用户在APP里就能查看自己的数据被采集了哪些、用在了哪里,还能导出数据使用记录。还有企业代表问:“我们按方案改造后,怎么知道节能效果是不是真的达标?”团队又增加了“效果跟踪机制”,AI会每月对比改造前后的能耗数据,生成效果报告,还会定期派工程师实地核验。
《AI能源审计伦理规范》发布那天,团队在“绿镜”APP首页做了弹窗提示,详细解读规范内容。出乎意外的是,用户不仅没有反感,反而纷纷留言支持。那位曾投诉数据泄露的小区业主在APP里写道:“现在能看到自己的数据怎么用的,心里踏实多了,昨天还根据提示给热水器装了定时器,一个月能省十度电。”
三个月后,“绿镜”的投诉量下降了80%,新增用户突破了三十万。林砚带着团队去回访那家食品厂,厂长拉着她的手说:“按你们的方案改造后,能耗降了15%,省下来的钱够买两台新设备了!”车间里的老式电表已经换成了智能电表,屏幕上显示的数据误差率稳定在3%以内。
那天傍晚,林砚站在工厂的顶楼,看着夕阳下的烟囱不再冒黑烟,车间里的机器运转得更高效。她打开手机,“绿镜”APP推送了一条消息:“您负责的区域今日节能总量达5000度,相当于减少了4吨二氧化碳排放。”
屏幕右下角,系统提示变成了绿色——“数据偏差率3.2%,符合伦理规范”。林砚知道,这不是终点,随着AI技术的发展,还会出现新的问题,但只要守住“以人为本”的底线,就能让技术真正为绿色发展服务,让每一度电都用在刀刃上,让每一份数据都闪耀着责任的光芒。