韩国和英国政府将敦促科技公司在本周的国际人工智能峰会上解决人工智能安全监管问题。
这次会议是去年英国布莱切利公园举行的首次全球人工智能安全峰会的后续会议,许多政府在那里表达了他们对人工智能风险的关注。人工智能公司也参与其中,因为他们正在开发的技术存在这些风险。
在许多国际努力创建针对这一快速发展技术的防护措施的同时,首尔峰会引发了对日常生活新兴风险的担忧。
去年11月的英国峰会汇集了研究人员、政府官员、科技高管和民间社会组织代表,其中许多人对人工智能持有不同意见。会议在布莱切利闭门举行。除了英国首相里希·苏纳克和OpenAI首席执行官山姆·阿尔特曼、特斯拉首席执行官埃隆·马斯克等政治家,还有许多其他人也参加了会议。
安全将再次成为首尔人工智能峰会的重中之重,该峰会将于5月21日至22日举行,由英国和韩国政府共同主办。
计划派遣代表的知名人工智能公司包括微软、Anthropic、Google DeepMind、ChatGPT的创始人OpenAI和法国人工智能初创公司Mistral。
英国首相里希·苏纳克和韩国总统尹锡悦周一在INews上发表了一篇联合文章。他们接受了这项技术的潜力,并表示他们有意确保安全,称:
他们还强调,随着新技术带来新风险,人工智能也是如此。他们指出,一些恶意行为者故意滥用人工智能以达到不良目的。
就在不久前,OpenAI解散了名为Superalignment team的安全团队,该团队的共同创始人伊利亚·苏茨克弗和其他一些关键员工离开了该公司。这家全球领先的人工智能公司在首尔峰会前几天做出了这一决定,该峰会的重点是减轻人工智能的风险。
此外,Anthropic今天发布了其负责任的扩展政策报告,据该公司称,该报告显示了良好的结果。然而,我们无法证实这些结果。虽然我们不能对任何这些进展发表评论,但它们确实提供了一些值得思考的内容。
创新必须继续
ChatGPT在2022年发布后迅速走红,全球科技公司开始投资数十亿美元建立生成式人工智能模型。苏纳克和尹锡悦提到了快速创新,因为每天都有新的人工智能模型推出。他们说:
生成式人工智能模型的支持者将这项技术视为能够改善人们生活和全球企业的突破,因为它可以根据简单的提示生成文本、照片、音乐甚至视频。
一些受到公众关注的产品存在内置偏见,这是令人担忧的原因。
仅仅是这些产品本身,它们背后的技术,被称为大型语言模型(LLMs),也已成为不同领域许多解决方案的基础技术。从自动驾驶汽车到医疗解决方案,许多解决方案都依赖生成式人工智能LLMs进行运作。
仍然存在令人担忧��声音
许多人要求制定国际准则来控制人工智能的发展和应用。例如,一个名为“禁止扫描”(Ban the Scan)的纽约运动要求停止在政府和私人领域使用面部识别技术。
他们认为这些技术侵犯了个人自由,并且误报率高。电子前沿基金会的网页上写着:
他们并不是唯一的声音。人权倡导者、政府和批评人士都警告人工智能可以以多种方式被滥用。例如,非国家行为者可以使用它来通过虚假新闻报道或所谓的“深度伪造”图像和视频影响选民。另一个不断加深的担忧是出现有国家支持恶意分子为了自身利益而滥用人工智能的报告。
这篇联合文章提到了上述声明,并强调在更加开放的论坛上讨论人工智能的国际规范将是有帮助的。与此同时,一些韩国民权组织批评组织者未邀请足够的发展中国家。
法国本周还将举办由全球最大奢侈品集团LVMH支持的“Viva Technology”会议。在过去一年中,法国试图吸引人工智能初创公司,以将自己定位为欧洲人工智能的领军者。
由Aamir Sheikh报道,Cryptopolitan报道。