谷歌、OpenAI和其他13家公司承诺不部署风险人工智能模型

谷歌、OpenAI和其他13家公司承诺不部署风险人工智能模型

谷歌、OpenAI和Meta同意如果无法控制风险,则停止开发任何AI模型。这些公司于周二在由英国和韩国主办的AI首尔峰会上签署了“AI安全承诺”。

根据报告,共有16家AI公司同意这项安全承诺,涵盖了美国、中国和中东地区。

微软、亚马逊、Anthropic、三星电子和中国开发商Zhipu.ai也是同意这些安全标准的公司之一。

AI安全承诺要求所有公司在2025年初的法国另一次AI行动峰会之前发布各自的安全框架。该框架将解释公司如何确定模型的风险以及哪些风险被认为是“不可容忍的”。

根据报告,在最极端的情况下,这些公司将“根本不开发或部署任何模型或系统”,如果无法控制风险。

2023年7月,美国政府采取了类似的努力来解决AI的风险和利益问题。乔·拜登总统与谷歌、微软、Meta、OpenAI、亚马逊、Anthropic和Inflection会面,讨论确保他们的AI产品在发布之前是安全的AI保障措施。

关于OpenAI的AI安全辩论升温

过去几个月,关于AI安全的讨论一直在升温,尤其是围绕着旨在模仿人类一般智能的AGI。

其中一家公司OpenAI最近成为这一讨论的中心,因为联合创始人Ilya Sutskever和高级主管Jan Leike辞去了公司的职务。这两人负责创建OpenAI超对齐团队,以防止他们的模型失控。

在他的帖子中,Leike表示,公司在过去几年中,安全文化和流程一直被搁置,而更注重于华丽的产品。

Leike补充说,“OpenAI必须成为一家以安全为先的AGI公司”,我们必须优先做好准备,以确保AGI造福于所有人类。

Cryptopolitan通过Ibiam Wayas报道

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注