2026年2月4日至2月13日,武汉大学法学院“驭算明规,法护就业”职场算法歧视法律规制调研队实践队员奔赴河南省、山东省、山西省等地,深入国有企业、民营企业、司法机关与求职者群体开展专题调研实践。
2月12日,实践队员张锦霖与重庆医药河南分公司人事经理崔维峰进行访谈调研。在访谈中,实践队员了解到:尽管算法工具在行业内已成为趋势,但公司目前仍坚持以人工决策为主。作为一家大型企业的人事负责人,崔经理坦言:“AI虽然效率高,但我们担心它被污染数据库影响,产生歧视性结果,而且决策过程看不见,容易让员工和求职者不信任。”
崔经理介绍,公司通过明确的招聘管理制度、初筛阶段隐去个人身份信息、禁止面试官询问与岗位无关的个人背景问题等措施保障公平。对于未来引入算法工具的可能性,他特别强调:“最关注的还是它能否合理地给出判断,确保结果能为员工和求职者所接受。即便引入,也必须建立人工复核机制。”这番表态反映出企业对算法治理的审慎态度。
2月4日,实践队员赵嘉采访了中国铁路济南局集团有限公司的一名职工。这位47岁的老员工详细描述了算法在绩效评估、排班、晋升积分等场景的应用:月度绩效工资实行百分制考核,“两违”问题、考试成绩等全部量化;年初的“大排班”通过算法迅速完成人员组合配置;新职大学生成长积分系统将春运帮班、荣誉称号直接折算为晋升依据。这些举措有助于激发员工工作积极性,但也有员工月初被扣分后便“自暴自弃”、引发员工消沉情绪的可能性。
2月13日,实践队员陆雨琦以线上方式采访了国能神东煤炭集团体系主管。在访谈中,实践队员了解到:集团招聘中使用的人力资源系统会根据历史离职数据建立预测模型,将“生源院校”与“离职风险”挂钩,对来自离职率较高院校的求职者自动生成风险提示。实践队员认为,这个应用虽未直接调用法律禁止的性别、年龄等敏感特征,但也可能导致特定院校毕业生未获得个体化评估即被整体排除。而主管坦言对劳动法中就业歧视条款“了解不太多”,折射出企业员工对算法相关风险意识不足的现状。
2月13日,实践队员陈子玉在河南省安阳市与辅导机构英语老师进行访谈。这位23岁的求职者详细描述了算法招聘的全流程:“先投简历,第一步就是AI机器自动筛选,连人工看一眼的机会都没有;要是过了初筛,很多公司还会安排AI视频面试,对着手机回答固定问题,系统直接自动打分。”
访谈对象多次遇到岗位条件匹配却无回应的困境,她怀疑学校背景或学历层次被系统放大。“我猜大概率是因为学校不是双一流、学历没拔尖,直接被AI按硬指标刷掉了。”当被问及是否会维权时,她几乎没有犹豫地回答不会:“问了也白费功夫,企业根本不可能跟求职者坦诚这个事。”这种被机器拒绝却不知原因的体验,让实践队员意识到:算法带来的问题不仅是是否公平,更是信息不透明造成的心理压力与维权无门的无力感。
此次调研实践加深了实践队员对于职场算法歧视现状的认识:保障算法透明度义务、公平性评估义务、有效救济义务的相关制度和法律建议落地道阻且长,在人工智能高速发展的当下,维有守住技术中的人文关怀,以制度公平促进实质公平,才能使技术更好的造福人民。