• 算法偏见
    Workday 请求法院驳回年龄歧视索赔:AI 招聘首次进入全国集体诉讼核心,北美华人 HR 需要关注什么? HR科技巨头 Workday 近日在一起备受关注的 AI 招聘诉讼中采取了最新法律行动。根据其在 2026 年 1 月 21 日向法院提交的文件,Workday 正式请求法官驳回原告提出的“差别影响(disparate impact)年龄歧视”指控,并主张《Age Discrimination in Employment Act(ADEA)》的适用范围仅保护在职员工,而不涵盖求职者。因此,公司认为应当撤销求职者基于年龄歧视提出的相关索赔。这一动议,是目前 Mobley v. Workday 案件的最新进展,也标志着该案正式进入核心法律博弈阶段。 该诉讼最早于 2023 年提起,原告为一批求职者,他们指控 Workday 的 AI 招聘与筛选工具在算法决策中对年龄等受保护群体造成系统性不利影响,从而构成歧视。2025 年 2 月,法院批准该案以 nationwide collective action(全国集体诉讼) 形式推进,使其从个体纠纷升级为覆盖全美范围的大规模案件。与此同时,法官还曾要求 Workday 提供使用其 HiredScore technology 的雇主完整名单,进一步扩大了潜在影响面。Workday 则公开回应称,其 AI 工具并不会识别或使用种族、年龄或残疾等受保护属性,并强调最终决策仍由人工主导。 从法律层面看,Workday 当前的策略并非直接围绕“算法是否存在偏见”展开,而是聚焦更基础的问题——求职者是否具备提起“差别影响”诉讼的法律资格。换言之,公司希望通过对法律条款的解释,缩小案HR件的适用范围。无论法院最终是否采纳这一主张,这一动作本身已经说明:AI 招聘正在从技术问题转变为司法问题。 对于北美华人 HR 从业者而言,这一点尤其值得重视。许多 NACSHR 社群成员所在的企业多为中小规模公司、跨州运营团队或初创组织,HR 通常身兼招聘、合规、员工关系与系统管理等多重角色。现实情况是,当企业采购 ATS 或 AI 筛选工具时,系统上线往往被视为效率优化;但一旦候选人质疑筛选结果或提起投诉,站出来解释流程、提供记录、应对律师函的人,往往是 HR 本人,而不是技术供应商。 这正是 Workday 案件释放的真正信号:算法并不会分担雇主责任。即便筛选由系统完成,法律仍然认定这是雇主的用工行为。企业不能以“系统自动决定”为由规避风险,HR 也无法以“工具问题”完全免责。 更广泛地看,Workday 并非孤例。此前 Eightfold AI 也因招聘流程涉及 FCRA 合规问题而遭遇诉讼调查。两起案件虽然分别涉及 ADEA 与 FCRA,不同的法律框架,却指向同一个趋势:只要算法影响到候选人的就业机会,它就等同于招聘决策本身,必须接受同等甚至更严格的监管与审查。这意味着,HR 科技行业已经进入“强合规时代”。 与此同时,监管环境也在不断收紧。包括 California 在内的多个州已开始要求企业在使用自动化招聘工具时提供候选人退出机制(opt-out),并进行风险评估与透明度披露。这类规定实际上将“算法治理”正式纳入 HR 日常合规管理范畴,而不再是技术团队的内部事务。 在这一背景下,HR 的能力模型正在悄然改变。过去我们关注的是招聘速度、转化率和成本控制;而未来更关键的问题是:系统是否可解释、是否可审计、是否留存记录、是否经得起监管问询。如果无法清晰说明筛选逻辑或提供合规证明,那么效率提升带来的收益,很可能被一次诉讼完全抵消。 对 NACSHR 的华人 HR 同行来说,这些案例并非遥远的大公司新闻,而是与日常工作直接相关的风险提醒。无论企业规模大小,只要开始使用 AI 招聘工具,就已经进入同一套法律框架之中。真正成熟的数字化升级,不是简单上线更多自动化,而是在效率、合规与信任之间取得平衡。 Workday 当前的法律动作,或许只是这场变革的开端,但它已经清晰地勾勒出一个趋势:未来的招聘竞争,不再只是“谁更智能”,而是“谁更合规、谁更可解释、谁更负责任”。这将成为所有北美 HR 必须面对的新现实。 Workday is seeking dismissal of disparate impact age discrimination claims brought by job applicants in the ongoing Mobley v. Workday lawsuit, arguing that the Age Discrimination in Employment Act (ADEA) does not extend such protections to applicants. In a court filing on January 21, 2026, the company stated that the law’s “plain language” limits disparate impact claims to employees, not candidates. The case, originally filed in 2023 and certified as a nationwide collective action in 2025, alleges that Workday’s AI recruiting tools discriminated based on age and other protected factors. Workday denies the claims, asserting that its AI systems neither use nor identify protected characteristics. The dispute highlights growing legal and compliance risks tied to AI-driven hiring technologies. Meanwhile, states including California are tightening regulations, requiring opt-out mechanisms and risk assessments for automated decision tools. The case could significantly shape how HR technology vendors and employers deploy AI in recruitment.
    算法偏见
    2026年01月27日
  • 算法偏见
    HR每年要与内部人工智能系统进行一场绩效对话 在当今日益依赖技术的商业环境中,人工智能(AI)已成为推动企业增长和效率的关键因素。AI的应用不仅仅局限于自动化任务,它还扮演着促进决策、增强客户体验及开拓创新的角色。 随着这些技术的不断发展,企业人力资源(HR)部门面临着一个新的挑战:如何有效地与AI系统进行绩效对话,以确保它们的最佳运作并符合组织的目标和价值观。 绩效指标的确定 有效的绩效对话始于明确的绩效指标。这些指标应反映AI系统的关键性能领域,包括但不限于准确性、效率、响应时间及客户满意度。例如,一个基于AI的客户服务平台的绩效可以通过其解决查询的速度和质量来衡量。 实践案例:伦敦一家零售企业的故事 一家位于伦敦的零售企业定期评估其AI驱动的库存管理系统。通过设定具体的绩效指标,如库存准确度和补货时间,该企业能够有效地监控和提升系统的性能,同时减少过剩库存和缺货情况。 设定评审周期 为AI系统设定一个固定的评审周期,有助于持续监控其绩效并及时调整。这不仅能确保AI的持续改进,也能帮助企业适应市场的变化。 伦理和合规性的重点 在与AI进行绩效对话时,不可忽视的是其伦理和合规性。企业应确保AI系统的设计和应用遵循数据保护法规,同时致力于消除算法偏见,确保公平性和透明性。 促进团队合作的策略 成功的AI应用需要人类团队的支持。定期组织跨部门会议,讨论AI系统的进展、挑战和改进方案,可以促进团队合作,增强人类员工和AI之间的协同效应。 创新与持续学习 AI系统应被视为一个持续学习和适应的实体。鼓励创新思维,定期评估AI系统如何支持新业务机会和流程优化,是确保企业长期竞争力的关键。 结语 与内部人工智能系统的绩效对话是一个动态的过程,它要求企业不断评估和调整其AI战略。通过明确的绩效指标、固定的评审周期、对伦理和合规性的重视、促进团队合作,以及持续的创新和学习,企业可以确保其AI投资不仅回报丰厚,而且与组织的长期目标和价值观保持一致。在技术不断进步的今天,维持这样的对话,意味着赋能企业不断向前发展。
    算法偏见
    2024年02月11日