• governance
    【AI“幻觉”惹祸】德勤退还澳大利亚政府44万澳元:AI责任与信任的边界被推上风口浪尖 德勤(Deloitte)因使用AI生成报告出现虚假引用,已向澳大利亚政府退回部分项目款项。报告价值约44万澳元,生成工具为OpenAI GPT-4o。事件核心并非“AI出错”,而是“人未复核”。当AI进入专业决策场景,如合规审查、HR管理、绩效评估,风险就不再是技术问题,而是责任问题。 2025年10月6日,多家国际主流媒体——包括《金融时报》(Financial Times)、《卫报》(The Guardian)与《商业内幕》(Business Insider)——同时报道:全球“四大会计师事务所”之一的德勤(Deloitte)已向澳大利亚政府退回部分咨询费用,原因是一份由AI辅助生成的官方报告出现了严重引用错误与虚构文献。 这份价值约44万澳元(约合人民币210万元)的报告名为《Targeted Compliance Framework Assurance Review》(目标合规框架保障评估报告),由澳大利亚就业与劳工关系部(DEWR)委托编制,旨在评估政府福利与合规系统的执行效果。报告发布后不久,学术界发现其中存在大量不实引用、错误脚注甚至虚构学术来源,随后被媒体揭露使用了生成式AI撰写部分内容。 【AI参与写报告?德勤承认并退款】 在舆论持续发酵后,德勤承认报告部分内容由微软Azure OpenAI GPT-4o辅助生成。由于AI“幻觉”导致文献造假、案例失真,德勤决定退回合同的最后一笔款项,澳大利亚政府也确认将公开合同细节。 德勤在声明中强调,报告的核心结论与政策建议未受影响,错误仅限于引用与注释层面。然而,公众和立法机构的质疑并未因此平息。澳大利亚工党参议员Deborah O’Neill直言:“德勤的问题不是AI问题,而是人类智力问题(a human intelligence problem)。” 她进一步呼吁,所有与政府合作的咨询机构应明确披露“AI在项目中的使用范围与程度”,并建立AI审查与复核机制。 【时间线回顾】 7月:德勤提交最终报告,未披露AI使用。 8月:学术界发现报告引用了不存在的案例与研究文献。 9月:媒体报道德勤正在内部审查并准备修订。 10月6日:德勤公开承认使用AI,并确认退款;政府表态将强化未来合同披露要求。 【咨询业的信任危机:从AI到责任边界】 这起事件不仅揭示了AI在文本生成领域的潜在风险,也让整个咨询与公共服务行业重新思考“责任”的归属。当AI生成报告、起草政策或撰写分析文件时,如果缺乏人类复核机制,错误就不再只是“技术问题”,而是专业信任危机。 AI的“幻觉”并非罕见——它会在缺乏事实支撑时生成貌似合理却虚构的信息。但当此类内容出现在政府报告、政策研究或企业审计中,其后果已不止于“学术瑕疵”,而可能直接影响公共决策与财政责任。 专家指出,AI可用于信息整理与初步分析,但在涉及法律、政策与公共治理的场景中,必须建立“三层防线”:算法审计、人工复核、责任归属。否则,AI效率越高,错误传播也越快。 【对HR与企业管理的启示】 这场“AI幻觉风波”不仅属于咨询行业的教训,也对人力资源与组织管理发出了强烈信号。AI的普及正快速改变招聘、绩效、培训与合规管理等领域,但如果HR不掌握AI使用的监督与伦理权力,这一权力就会被技术部门接管。 负责任的AI治理(Responsible AI)并非技术议题,而是组织文化与价值观的延伸。HR不仅要懂得如何应用AI提升效率,更要懂得如何为AI“设边界”。 AI可以加速决策,但只有人类能为决策承担责任。在AI时代,HR是组织中最后的信任守门人。 德勤的退款事件或许只是AI时代众多“幻觉案例”中的一个,但它让我们重新看清一个本质:技术从不犯错,真正出问题的,是放弃了复核与判断的人。
    governance
    2025年10月07日
  • governance
    深度观察 | AI重构HR的未来蓝图:战略编排才是核心战场--解读Deloitte《HR Reimagined: Agentic AI for HR》 在AI加速重塑企业运作方式的今天,人力资源领域也正经历着一场深刻变革。2025年夏季,Deloitte  发布了最新研究报告 《HR Reimagined: Agentic AI for HR》,由资深人力资本与AI转型顾问 Greg Vert 和 Kyle Forrest 联合撰写。报告围绕“Agentic AI”(智能体AI)这一新一代技术,系统探讨了AI如何在HR全价值链中发挥作用——从战略规划、治理体系,到能力建设与技术架构,并通过16项HR核心能力与67个具体活动的分析,描绘了从AI辅助(Assisted)到增强(Augmented)再到AI驱动(AI-Powered)的成熟路径。 本文将结合报告核心内容与行业背景,带来一份深入的中文解读,帮助HR领导者与业务决策者理解AI在HR中的落地价值、潜在风险及战略编排方法。非常值得推荐阅读!!如果需要PDF 可以邮件我们 nacshr818@gmail.com 获取德勤报告 人工智能的快速发展,正在让HR领域面临一次前所未有的变革。从招聘到员工体验,从绩效管理到流程优化,AI的触角已经伸入几乎所有HR职能。Deloitte 在《HR Reimagined: Agentic AI for HR》中,描绘了一幅未来蓝图——AI不再只是工具,而是HR战略执行的核心力量。本文将结合报告要点,带来一份面向HR领导者的深度解读。 1. AI在HR的三种形态:从辅助到驱动 报告指出,AI在HR的应用大致分为三个阶段: 辅助型(Assisted):AI为人类提供支持,如自动生成职位描述、初步整理数据等。 增强型(Augmented):人类与AI交替协作,AI能处理部分复杂任务,如候选人筛选、知识库更新、调查分析。 驱动型(AI-Powered):AI主导流程执行,人类负责监督与优化,例如自动完成员工咨询、生成分析报告、触发跨部门流程。 解读:企业应先明确自身在这三个阶段中的位置,然后规划向更高阶段的演进路径,而不是盲目堆砌工具。 2. Agentic AI:HR的“虚拟同事” 传统AI往往是功能插件,作用单一。而Agentic AI的特征在于:理解上下文、规划多步骤任务、调用不同系统完成工作,并能根据反馈优化执行。这类AI更像是一名“虚拟同事”,能够独立完成从信号识别到结果交付的全流程。 解读:这要求HR团队具备“管理AI”的能力——为AI设定任务边界、明确流程接口、评估其工作成效,而不是只当它是一个按钮或查询工具。 3. 角色重塑:从事务处理到战略赋能 AI的引入会让HR的时间分配发生显著变化: HR业务伙伴(HRBP):从有限服务部分业务单元,转向为全体管理者提供战略性人才辅导。 卓越中心(COE):从数据收集整理转向实时洞察与预测,参与前置决策。 HR运营(HR Ops):80%以上的日常事务由AI执行,团队重心转向员工体验和流程改进。 解读:HR的绩效评估指标也应随之调整,从“完成多少任务”转向“业务贡献度”和“战略影响力”。 4. 高价值落地场景 报告给出了一些能快速显现成效的Agentic AI应用: 入职流程:多个AI协作完成任务分配、福利登记、培训安排,跨平台无缝衔接。 请假与返岗管理:AI提前识别返岗事件,触发跨部门流程,并根据反馈优化体验。 人才保留:AI实时分析流失风险并推送定制化留才方案,直接触发奖励或调配。 解读:这些场景有三个共性——跨系统、闭环执行、可持续优化,非常适合做为企业的AI试点项目。 5. 碎片化风险与战略编排 如果不同部门各自引入AI工具,很容易造成“67个AI源”的割裂局面:数据孤岛、体验不一致、治理困难。报告提出五个关键步骤来避免碎片化: 规划:目标与业务战略、员工需求一致; 治理:覆盖伦理、数据安全、信任机制; 能力建设:集中AI专业能力,设立卓越中心; 编排:工具互通并嵌入核心流程,而非外挂; 衡量:效率、体验、公平性与成果并重。 解读:这本质上是“企业级AI治理”的HR版本,需要跨部门协作才能真正落地。 6. 技术趋势:多智能体系统(MAS) 未来12-18个月,用户与HR系统的交互将从传统API调用,逐步转向多智能体系统(MAS)——多个AI可以相互协作、与人类互动、跨平台执行复杂任务。例如,招聘AI可以直接与培训AI、薪酬AI协作,实现从录用到入职培训到福利登记的自动化闭环。 解读:这意味着企业未来的AI生态将是“团队作战”而非“单兵作战”,需要提前规划架构与数据接口。 结语:AI价值取决于编排能力 AI进入HR是不可逆趋势,但它的价值并不会自动释放。真正的竞争力来自于战略性编排与持续优化——让AI不只是辅助工具,而是组织能力的一部分。对于想在未来人才竞争中保持领先的HR团队来说,现在正是重新设计角色、流程与能力结构的关键窗口期。 报告来源:Deloitte《HR Reimagined: Agentic AI for HR》 作者:Greg Vert 与 Kyle Forrest
    governance
    2025年08月13日
  • governance
    美国劳工部发布职场人工智能使用原则,保护员工权益(附录原文) 今天5月16日,美国劳工部发布了一套针对人工智能(AI)在职场使用的原则,旨在为雇主提供指导,确保人工智能技术的开发和使用以员工为核心,提升所有员工的工作质量和生活质量。代理劳工部长朱莉·苏在声明中指出:“员工必须是我们国家AI技术发展和使用方法的核心。这些原则反映了拜登-哈里斯政府的信念,人工智能不仅要遵守现有法律,还要提升所有员工的工作和生活质量。” 根据劳工部发布的内容,这些AI原则包括: 以员工赋权为中心:员工及其代表,特别是来自弱势群体的代表,应被告知并有真正的发言权参与AI系统的设计、开发、测试、培训、使用和监督。这确保了AI技术在整个生命周期中考虑到员工的需求和反馈。 道德开发AI:AI系统应以保护员工为目标设计、开发和培训。这意味着在开发AI时,需要优先考虑员工的安全、健康和福祉,防止技术对员工造成不利影响。 建立AI治理和人工监督:组织应有明确的治理体系、程序、人工监督和评估流程,确保AI系统在职场中的使用符合伦理规范,并有适当的监督机制来防止误用。 确保AI使用的透明度:雇主应对员工和求职者透明地展示其使用的AI系统。这包括向员工说明AI系统的功能、目的以及其在工作中的具体应用,增强员工的信任感。 保护劳动和就业权利:AI系统不应违反或破坏员工的组织权、健康和安全权、工资和工时权以及反歧视和反报复保护。这确保了员工在AI技术的应用下,其基本劳动权益不受侵害。 使用AI来支持员工:AI系统应协助、补充和支持员工,并改善工作质量。这意味着AI应被用来提升员工的工作效率和舒适度,而不是取代员工或增加其工作负担。 支持受AI影响的员工:雇主应在与AI相关的工作转换期间支持或提升员工的技能。这包括提供培训和职业发展机会,帮助员工适应新的工作环境和技术要求。 确保负责任地使用员工数据:AI系统收集、使用或创建的员工数据应限于合法商业目的,并被负责地保护和处理。这确保了员工数据的隐私和安全,防止数据滥用。 这些原则是根据拜登总统发布的《安全、可靠和可信赖的人工智能开发和使用行政命令》制定的,旨在为开发者和雇主提供路线图,确保员工在AI技术带来的新机遇中受益,同时避免潜在的危害。 拜登政府强调,这些原则不仅适用于特定行业,而是应在各个领域广泛应用。原则不是详尽的列表,而是一个指导框架,供企业根据自身情况进行定制,并在员工参与下实施最佳实践。通过这种方式,拜登政府希望能在确保AI技术推动创新和机会的同时,保护员工的权益,避免技术可能带来的负面影响。 这套原则发布后,您认为它会对贵公司的AI技术使用和员工权益保护产生怎样的影响? 英文如下: Department of Labor's Artificial Intelligence and Worker Well-being: Principles for Developers and Employers Since taking office, President Biden, Vice President Harris, and the entire Biden-Harris Administration have moved with urgency to harness AI's potential to spur innovation, advance opportunity, and transform the nature of many jobs and industries, while also protecting workers from the risk that they might not share in these gains. As part of this commitment, the AI Executive Order directed the Department of Labor to create Principles for Developers and Employers when using AI in the workplace. These Principles will create a roadmap for developers and employers on how to harness AI technologies for their businesses while ensuring workers benefit from new opportunities created by AI and are protected from its potential harms. The precise scope and nature of how AI will change the workplace remains uncertain. AI can positively augment work by replacing and automating repetitive tasks or assisting with routine decisions, which may reduce the burden on workers and allow them to better perform other responsibilities. Consequently, the introduction of AI-augmented work will create demand for workers to gain new skills and training to learn how to use AI in their day-to-day work. AI will also continue creating new jobs, including those focused on the development, deployment, and human oversight of AI. But AI-augmented work also poses risks if workers no longer have autonomy and direction over their work or their job quality declines. The risks of AI for workers are greater if it undermines workers' rights, embeds bias and discrimination in decision-making processes, or makes consequential workplace decisions without transparency, human oversight and review. There are also risks that workers will be displaced entirely from their jobs by AI. In recent years, unions and employers have come together to collectively bargain new agreements setting sensible, worker-protective guardrails around the use of AI and automated systems in the workplace. In order to provide AI developers and employers across the country with a shared set of guidelines, the Department of Labor developed "Artificial Intelligence and Worker Well-being: Principles for Developers and Employers" as directed by President Biden's Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence, with input from workers, unions, researchers, academics, employers, and developers, among others, and through public listening sessions. APPLYING THE PRINCIPLES The following Principles apply to the development and deployment of AI systems in the workplace, and should be considered during the whole lifecycle of AI – from design to development, testing, training, deployment and use, oversight, and auditing. The Principles are applicable to all sectors and intended to be mutually reinforcing, though not all Principles will apply to the same extent in every industry or workplace. The Principles are not intended to be an exhaustive list but instead a guiding framework for businesses. AI developers and employers should review and customize the best practices based on their own context and with input from workers. The Department's AI Principles for Developers and Employers include: [North Star] Centering Worker Empowerment: Workers and their representatives, especially those from underserved communities, should be informed of and have genuine input in the design, development, testing, training, use, and oversight of AI systems for use in the workplace. Ethically Developing AI: AI systems should be designed, developed, and trained in a way that protects workers. Establishing AI Governance and Human Oversight: Organizations should have clear governance systems, procedures, human oversight, and evaluation processes for AI systems for use in the workplace. Ensuring Transparency in AI Use: Employers should be transparent with workers and job seekers about the AI systems that are being used in the workplace. Protecting Labor and Employment Rights: AI systems should not violate or undermine workers' right to organize, health and safety rights, wage and hour rights, and anti-discrimination and anti-retaliation protections. Using AI to Enable Workers: AI systems should assist, complement, and enable workers, and improve job quality. Supporting Workers Impacted by AI: Employers should support or upskill workers during job transitions related to AI. Ensuring Responsible Use of Worker Data: Workers' data collected, used, or created by AI systems should be limited in scope and location, used only to support legitimate business aims, and protected and handled responsibly.
    governance
    2024年05月16日
  • governance
    视频:Leading Through Transformation The Future of HR in the AI Era Leading Through Transformation The Future of HR in the AI Era Jiajia Chen Senior Group Product Manager Nvidia 点击访问:https://www.youtube.com/watch?v=toiy_sBDXHs 以下为演讲稿翻译整理,仅供参考: 引领变革:人工智能时代人力资源的未来 欢迎大家,我很高兴有机会讨论一个自2022年底以来成为焦点的话题。随着chat的广泛成功,许多人开始思考一个问题:我还会有工作吗?对于一些父母来说,这个问题可能会有所不同:我的孩子将来会有工作吗?在深入这个问题之前,让我简单介绍一下自己。我早期的职业生涯涉及多个商业领域,包括人力资源,后来我专注于人工智能产品管理。我拥有几个学位,包括法律学位、MBA学位、经济学科学学位和软件工程学位。我曾在Nidia管理人工智能基础设施产品组合几年。去年晚些时候,我转移到另一个名为Nidia Omniverse的产品组,这是一个数字孪生平台工业元宇宙。我们的企业客户可以使用Omniverse来创建数字孪生工业元宇宙,通过利用模拟和生成性人工智能以及与大型生态系统合作。通过这些经历,我对人工智能和人力资源有了深刻的理解。在这次演讲中,我希望能提供一个框架,帮助大家思考如何在人工智能时代领导转型,如何保持相关性并比人工智能发展得更快。 人工智能并不是一个新概念。让我们快速回顾一下人工智能发展的简史,为今天的对话奠定基础。人工智能领域诞生于1950年代。1950年,艾伦·图灵提出了模仿人类智能的通用机器的概念。1956年,人工智能这一术语被创造出来。在1970年代和1980年代,人工智能最初的乐观预期开始减弱,因为进展没有达到高期望,人工智能研究的资金减少,领域经历了被称为人工智能冬天的时期。在人工智能冬天期间,研究人员专注于发展专家系统,这是基于规则的系统,旨在模仿人类专家在特定领域的知识和决策能力。这种方法在实际应用中取得了一些进展,例如医学诊断和工业自动化。1980年代,人工智能的焦点转向了机器学习和神经网络。机器学习算法允许计算机在没有明确编程的情况下从数据中学习,并做出预测或决策。受人类大脑结构启发的神经网络引起了关注,并被应用于各种任务,包括图像和语音识别。得益于大量数据的可用性和计算能力的进步,人工智能经历了复兴。Nidia的贡献是关键的。 2022年11月推出的ChatGPT标志着人工智能的关键时刻。生成性人工智能正在推动机器创造的边界。人工智能越来越多地融入各种应用和行业,正在金融、医疗保健、网络安全等领域发挥作用,转变行业并创造新的机会。 你们中有多少人尝试过ChatGPT?你们喜欢它的哪些功能?是否用它来草拟电子邮件、创建培训材料,或者提出棘手的问题,试图愚弄chat GPT,证明你的人类智能更高级?人工智能预计将在各个维度对工作场所产生重大变化。 以下是人工智能可能带来的九个变化。 首先,提高生产力:人工智能是否会提高生产力和经济增长?许多人这样预期,但也有很多人告诉你,到目前为止,这种生成性人工智能趋势并没有大幅提高生产力,除了提供一些有趣的玩具。你们中的一些人可能听说过“生产力悖论”,这是1970年代和1980年代在美国发生的现象。我的预测是,人工智能不会发生这种情况。人工智能可以更快地传播,且所需的资本投资更少。这是因为人工智能在短期内的应用主要是软件革命,所需的大部分基础设施,如计算设备、网络和云服务,已经到位。你现在可以通过手机立即使用chat GPT和迅速增长的类似软件。 其次,收入不平等:人工智能是否会带来自动化的奢华时代,还是只会加剧现有的不平等?美国国家经济研究局发布的一份报告称,自1980年以来,美国工资变化的50%到70%可以归因于蓝领工人被自动化取代或降级导致的工资下降。人工智能、机器人技术和新的复杂技术导致财富高度集中。直到最近,受过大学教育的白领专业人士基本上没有受到低教育工人的命运。拥有研究生学位的人看到他们的薪水上涨,而低教育工人的薪水显著下降。这一问题将加剧,低技能的白领工人也将受到影响。 第三,劳动力技能提升和风险转移:随着某些任务的自动化,人工智能需要专注于提升和重新技能化劳动力。员工需要获得新的技能和知识,以适应不断变化的工作要求,并有效地与人工智能系统协作。有关这一主题的研究很多,不同研究的数据也有所不同。彭博社的研究显示,由于人工智能对工作的影响,全球将有超过1.2亿工人在未来三年内需要重新培训。据信,由于人工智能相关部署,中国将有超过5000万工人需要重新培训。美国将需要重新培训1150万人,以适应劳动力市场的需求。巴西、日本和德国的数百万工人也将需要帮助应对人工智能、机器人技术及相关技术带来的变化。根据麦肯锡的一项研究,由于快速自动化的采用,多达3.75亿工人可能需要转换职业类别。 第四,重新定义工作角色:人工智能有潜力重塑工作角色并创造新的角色。一些任务和工作可能会完全自动化,导致某些领域的工作流失。然而,人工智能也为创造涉及管理和协作人工智能系统、分析人工智能生成的内容、开发和维护人工智能技术的新角色创造了机会。例子包括美国政府试图将制造业带回美国。许多人认为,像第二次世界大战后一样,将创造数百万高薪的蓝领工人工作。然而,这最有可能不会发生,因为在美国建造的新工厂几乎不会雇用许多人类工人。一切都将通过机器人或管理系统自动化。 第五,增强决策制定:人工智能系统可以分析大量数据,检测模式,并生成支持决策过程的洞察。这可以使员工和管理者获得更准确、更及时的信息,使各种职能(如运营、市场营销、财务、人力资源)的决策更加明智。2019年哈佛商业评论提出了一个概念,称为人工智能驱动的决策,与数据驱动的决策相比,它允许我们克服作为人类处理器的固有局限性,如低效和认知偏见,因为你可以指派机器来处理大量数据,让我们人类应用判断力、文化价值观和情境来选择决策选项。 第六,人工智能与人类的协作:人工智能技术使得人与智能系统之间的协作成为可能。这种协作可能涉及利用人工智能在数据分析、模式识别和预测方面的优势,而人类则提供批判性思维、创造力、同理心和复杂问题解决技能。如果能够有效地实现人与人工智能系统的协作,可以带来改进的成果和创新。的确,许多公司已经使用人工智能自动化流程,但到目前为止,证据表明,那些旨在取代员工的部署只会带来短期的生产力提升。在一项涉及1500家公司的基本研究中发现,当人类和机器一起工作时,公司取得了最显著的绩效提升。 第七,增强智能:人工智能可以通过补充和增强人类能力来增强人类智能。它可以协助人们执行诸如信息检索、数据分析和问题解决等任务。人工智能支持的虚拟助手和机器人可以为人们提供即时支持和指导,提高他们的效率和效果。 第八,伦理考虑:人工智能在工作场所的整合引发了与隐私、安全、公平、透明度和问责制相关的伦理考虑。组织需要建立伦理框架和指南来确保人工智能系统的合理和可信赖的开发和部署。 第九,监控和评估AI实施。这个变化涉及到持续监控人工智能在工作场所的影响,并从员工那里收集反馈,以识别改进领域。定期的评估和反馈循环将有助于完善人工智能的实施和使用,确保其在增进工作效率、创新和其他方面的应用是有效和恰当的。(以上为AI补充,仅供参考) 目前,我们已经详细讨论了人工智能在工作场所创造的变化,以及人力资源应该如何应对这些变化。 现在,让我分享这张早先在一次HR会议上使用的幻灯片。2016年,我在一个名为“HR新模型”的会议上发表了演讲。现在,让我们看看这个模型。一个典型的组织结构包括首席执行官、人力资源业务伙伴、共享服务和一个运营部门,支持管理者和员工群体。公司是否能用这个模型应对人工智能在工作场所带来的变化?我们是否需要一个不同的模型?在回答这个问题之前,让我们看看应对每种类型变化需要发生什么。在这张幻灯片上,我展示了我简单的颜色编码技术。我简单地将所有类型的能力和技能分类并用不同颜色高亮显示。现在我们可以看到几个主要类别和一些零散项目。让我们稍微深入一些颜色分类的挑战。 首先,以蓝色突出显示的助理挑战和两个工作场所的变化。HR可以评估利用人工智能的技能和能力要求,为员工提供必要的资源,使他们能够理解和利用人工智能技术,以及如何通过人工智能来增强他们的工作。这包括关于人工智能概念、数据分析、自动化工具和人工智能支持决策的培训。HR可以培养持续学习的文化。 其次,以绿色突出显示的变革管理和沟通,在四个不同的工作场所变化中出现。HR可以积极地向员工传达人工智能实施的目的和好处,以提高生产力和效率。HR可以协助经理和员工分析工作并重新设计工作流程,以利用人工智能技术。这涉及识别可以自动化或由人工智能增强的任务和活动,简化工作流程,消除冗余或低价值测试,并确定人类和人工智能如何合作以优化生产力和效率。 第三,以热粉色突出显示的职业发展和内部流动性,在三个不同的工作场所变化中出现。HR可以进行技能评估,以确定组织内现有技能,并确定需要解决的AI相关角色的差距。这包括识别与人工智能技术合作所需的技术技能,如机器学习,以及有效沟通、批判性思维和问题解决所必需的软技能。 最后,以灰蓝色突出显示的伦理指导和治理,在三个不同的工作场所变化中出现。HR可以与法律、合规团队等相关利益相关者协作,为人工智能变革建立治理框架。那些仍以黑色显示的功能在未来几年将看到更多的自动化和置换,投资较少,因为这些能力在人工智能转型中的相关性较低。 为了跟上甚至领导人工智能趋势及其对工作场所的影响,HR可以采取几个积极的步骤。以下是我们可以考虑的一些关键行动:持续学习,HR专业人士可以深入了解人工智能技术、应用和影响;识别人力资源中的人工智能用例,HR可以探索各种可以增强其功能和简化流程的人工智能应用,例如自动化日常行政任务、改进候选人筛选和选拔流程,以及提供个性化的学习和发展机会;评估组织的人工智能准备情况,HR可以评估组织当前的基础设施、技术能力和文化,以确定其采用人工智能的准备情况;通信和透明度,人工智能实施期间的沟通和透明度对于缓解对工作安全的担忧、澄清人工智能采用的好处以及确保员工理解人工智能技术将如何增强而非取代他们的工作至关重要;监控和评估人工智能实施,HR可以持续监控人工智能对工作场所的影响,并从员工那里收集反馈,以识别改进领域。定期的评估和反馈循环将有助于完善人工智能实施。  
    governance
    2023年07月02日