最近,Airmic对AI在组织结构中应用的伦理问题进行的研究揭示了一些与伦理风险的普遍认知直接相关的重要见解。调查显示,近60%的受访者将源自AI技术的伦理风险与他们所在组织中普遍存在的许多伦理关切综合考虑。这可能强调了伦理问题是几乎所有关注领域中必须遵循的规则的总称。
值得注意的是,关于AI伦理问题的解决方案是否应独立还是应作为更广泛讨论的一部分,意见存在分歧。有人认为AI内部的伦理应该独立存在,而另一些人则认为它应该严格遵循现有的伦理准则。
风险管理实践的突出地位
AI技术在企业运营中的部署以及在更广泛的范围内应用于我们的日常活动,已经引发了组织风险管理中至关重要的道德问题。也就是说,这是一种揭示了在AI实施过程中可能带来的复杂伦理问题的动力。
在这种情况下,公司往往会设立AI伦理委员会,并制定与AI相关风险评估有关的独立框架。这些被制定出来作为一个道德指南,以成功应对机构的挑战,并处理将人工智能整合到其功能中的伦理问题。
根据Airmic首席执行官兼该领域专家朱莉娅·格雷厄姆的说法,曾经被认为只是一个静态的问题现在已经成为一种含义。正如她所强调的,这些风险,远比以前更多,将对这一代的决策者以及更加决心的继任者产生影响,这将需要更加深入地理解与这些环境风险有关的伦理问题。
Airmic的研究主管洛克表示,该组织的执行董事们在伦理方面有着哲学驱动。他坚持认为,AI伦理的风险不是孤立存在的,而是与组织每天面临的其他伦理关切相互关联,因此,组织需要始终讨论AI伦理并评估其风险管理方法。
持续的讨论和评估
今天,组织意识到通过负责任的对话来解决AI伦理风险管理问题在可持续发展层面的重要性。此外,建议公司应该在连接风险管理活动与治理结构的交叉点进行综合研究,而企业领导者对风险管理和治理问题的明显和隐藏方面的态度在人员方面也是如此。
正如Airmic的研究中所强调的,现在关于应用AI和围绕其伦理性的深层信念和障碍实际上已经存在。AI技术的影响力和重要性在许多行业中不断增长。在负责任地实施AI技术时,伦理风险管理越来越成为一个重要问题。可以通过建立聚会和创建机构来实现这一目标,这些机构在整合AI技术到公司中时制定出有效的系统。因此,组织的伦理规范得到了很好的遵守,并且能够最大限度地从AI中受益。