2025-01-21 11:36 来源:本站编辑
2023年11月,两名现已去世的投保人的遗产起诉美国健康保险公司联合医疗(United Healthcare),称其部署了一种有缺陷的人工智能(AI)系统,系统性地拒绝了患者的索赔。
他们声称,问题不仅仅在于人工智能是如何设计的。据称,该公司还限制了员工推翻系统决定的能力,即使他们认为系统是错误的。
他们声称,该公司甚至惩罚了那些没有按照模型预测行事的员工。
无论此案的最终结果如何(此案仍待美国法院系统审理),诉讼中提出的主张突显了各组织面临的重大挑战。
虽然人工智能提供了巨大的机会,但它的安全和负责任的使用取决于是否有合适的人、技能和文化来适当地管理它。
不管企业喜不喜欢,人工智能正在渗透企业。许多澳大利亚组织正在迅速采用这项技术。专注于主动管理风险的企业太少了。
根据澳大利亚负责任的人工智能指数2024,78%的受访组织声称他们对人工智能的使用符合负责任的人工智能原则。
然而,只有29%的人表示他们已经采取了措施来确保这一点。
在某些情况下,人工智能是新产品的一个广为宣传的卖点,组织正在做出积极的决定来采用它。
与此同时,这些系统越来越隐蔽。它们可以由上游供应商使用,作为新产品的子组件嵌入,或者通过自动软件更新插入到现有产品中。
有时,它们甚至被员工在“影子”的基础上使用——在管理层的视线之外。
人工智能采用的普遍性(通常是隐蔽性)意味着组织不能将人工智能治理仅仅视为合规工作或技术挑战。
相反,领导者需要专注于建立正确的内部能力和文化,以支持在其运营中安全、负责任地使用人工智能。
悉尼科技大学(University of Technology Sydney)人类技术研究所(Human Technology Institute)的研究指出了企业必须做好的三个关键因素。
首先,董事会和高级管理人员对人工智能有足够的了解,以提供有意义的监督,这一点绝对至关重要。
这并不意味着他们必须成为技术专家。但董事们需要对人工智能有我们所说的“最低限度的可行理解”。他们需要能够发现技术的战略机遇和风险,并提出正确的管理问题。
如果他们没有这方面的专业知识,他们可以寻求培训,招募有这方面知识的新成员,或者建立一个人工智能专家咨询委员会。
其次,组织需要为人工智能治理建立明确的问责制。这应该给具有适当权限的特定人员明确的职责。
许多领先企业已经在这么做了,它们提名了一位职责明确的高管。这主要是一个治理角色,它需要独特的技能组合:强大的领导能力、一定的技术素养和跨部门工作的能力。
第三,组织需要创建一个具有简单有效流程的治理框架,以审查其对人工智能的使用,识别风险并找到管理风险的方法。
也许最重要的是,组织需要围绕人工智能的使用培养一种批判性的支持性文化。
这是什么意思?在这样的环境中,各级员工都了解人工智能的潜力和风险,并感到有能力提出担忧。
澳大利亚电信的“负责任的人工智能政策”是在复杂的企业环境中进行良好实践的一个案例研究。
为了确保董事会和高级管理层能够很好地了解人工智能活动和风险,澳大利亚电信成立了一个监督委员会,专门审查高影响力的人工智能系统。
该委员会汇集了来自法律、数据、网络安全、隐私、风险和其他团队的专家和代表,评估潜在风险并提出建议。
重要的是,该公司还投资对所有员工进行人工智能风险和治理方面的培训。
文化因素尤其重要,因为人工智能的采用通常是如何展开的。
我们之前的研究表明,许多澳大利亚员工认为人工智能是在没有充分咨询或培训的情况下强加给他们的。
这不仅会造成阻力。这也可能意味着企业错过了关于员工如何实际使用人工智能创造价值和解决问题的重要反馈。
最终,我们在人工智能方面的集体成功在很大程度上并不取决于技术本身,而是取决于我们围绕它建立的人类系统。
无论你是领导一个组织还是为一个组织工作,这一点都很重要。所以,下次当你的同事开始讨论以新的方式购买或使用人工智能的机会时,不要只关注技术。
问:“要想成功,我们的员工、技能和文化需要具备哪些特质?”