深肤色群体错误率显著更高
跨种族识别能力弱
女性识别准确率普遍偏低
跨性别群体识别困境
数据集的代表性失衡
特征提取算法的局限性
算法训练中的隐性偏见
执法误判
社会服务排斥
构建均衡数据集
开发抗偏见算法
技术伦理框架
人脸识别技术的偏见本质上是人类社会结构性不平等的技术映射。解决路径需融合技术改进(如多光谱成像提升深肤色识别)、数据民主化(覆盖全球族群样本)、及伦理治理(立法限制高风险场景应用)。当前IBM、亚马逊已暂停执法场景人脸识别服务,但根本性变革仍需全球协作。