“这个世界差劲成这样,干脆让机器人主导算啦!”
“就是啊,肯定会有那一天,机器人是中性的,到时候的生活怎么过都不会太差的。”
“科技快点发展吧!”
那一天,真的到来了。
一个中年女人感到非常疲劳,下颌疼痛和恶心,她使用家庭健康AI助手评估症状。
可惜,这个系统是基于数十年来,以男性患者为主要研究对象的心脏病数据训练而成。
AI判定她的症状**型,更像是焦虑和胃部不适,建议她休息观察。
实际上,那就是女性症状不典型的心肌梗死。
由于错过了黄金抢救时间,她最终不幸离世。
“医学研究历史上长期将男性视为默认人类模型,导致对女性心血管疾病甚至药物反应的认知存在巨大空白,AI学习了这些有偏见的数据,就会系统性地低估女性的健康风险。”阿X谈论这个案例。
一个女人驾驶着一辆搭载了最先进智能安全系统的汽车。
这个系统的安全气囊触发压力和碰撞测试模型,主要是基于一个平均身高体重为男性的假人数据。
在一次不可避免的正面碰撞中,女人由于坐姿靠前、体重更轻,安全气囊展开时间和力度有偏差,根本不能为她提供最佳保护,反而造成了额外伤害,导致她重伤不治。
“从汽车设计到安全标准,女性身体长期以来被视为男性的缩小版,而不是一个具有不同的肌肉密度、骨骼结构和坐姿习惯的独立模型,”阿X说,“AI驱动的安全系统,如果沿用了这种有缺陷的标准,等于直接让女人死。”
一位家庭中的故意伤害的承受者多次拨打报警和求助热线。
接听她电话,并做出初步风险评估的,是一个AI语音分析系统。
这个系统被训练用来识别高危险、高威胁的语境。
但是它的判断标准是基于直接威胁的。
这个女人在极度恐惧下,声音颤抖、语无伦次,因为害怕被罪犯发现,而压低声音,只是在反反复复地描述着自己被心理控制了,并且陷入了反复描述长久的恐惧中。
AI把这些判定为“低风险”“情绪化倾诉”,未转接人工处理。
就在这时,“唰”。
阿X提着一柄菜刀,干脆利落地贯穿了AI机器人和那个男人的中枢。
“僵化的、带有性别刻板印象的模型,只会让更多女人死亡。”阿X叹息,“看似平等的科技服务,依旧让女人们沦为二等公民,AI时代,构建的是这样一个未来的话,希望你们能引以为戒,从根改造。”
【演习结束。】联席说。