微软已禁止美国警察部队使用在Azure OpenAI Service上运行的生成式AI服务。这是周三在升级的服务条款中提出的一种全新的方法,旨在回应AI在执法中面临的日益增长的伦理困境。
政策更新突出了伦理关切
修订后的条款明确规定,这些集成不得由美国的警察机构“使用或服务”。这一限制还包括文本和语音分析模型,强调微软对负责任的AI使用的重视。作为额外的规定,还引入了一个单独的条款,专门禁止在不受控制的环境中使用移动摄像头上的实时人脸识别技术,包括身体摄像机和行车记录仪。
这些举措的触发点可能在于科技行业最近的进展。著名的军事和执法技术公司Axon刚刚宣布推出一款产品,该产品使用OpenAI的verbalizer模型和GPT-4生成文本来帮助总结身体摄像机记录的音频。同时,这些生成的虚假信息及其在训练数据中的种族偏见引起了一些批评者的关注。
影响和解释的空间
尽管升级后的政策是微软的明确立场,但仍然允许进行解释。Azure OpenAI Service的禁止仅适用于美国警察,国际部署仍在继续。此外,对人脸识别技术使用的限制仅适用于美国执法单位的使用,不包括受控环境中的固定摄像头。
这种平衡的方法与微软在执法和国防领域的广泛AI战略相吻合。与此同时,尽管禁止了某些使用方式,OpenAI与政府机构之间的合作,其中五角大楼是一个典型例子,已经悄然兴起。这样的合作表明OpenAI和微软正在寻求军事技术中的AI应用,这标志着它们的立场发生了变化。
政府参与和行业动态
政府机构采用微软的Azure OpenAI Service的速度正在加快,因为Azure Government为执法提供了额外的合规和管理工具。微软联邦事务高级副总裁Candice Ling将负责从国防部获得更多对Azure OpenAI Service的批准,从而表明该平台在紧急任务中非常有用。
AI伦理和监管的动态领域需要科技公司提前采取周密的行动。通过决定避免在执法中使用AI,微软展示了整个行业增加AI部署的问责和透明度的倾向。在AI监管的讨论中,技术提供商、政策制定者和活动家组织必须共同努力解决新出现的伦理问题。
微软阻止美国警察部门在特定情况下使用Azure OpenAI Service的举动,证明了该公司在处理AI部署伦理问题上采取的深思熟虑和专注的方法。事实上,这一修订显示了决策者的真诚以及这种平衡行为所涉及的复杂性。考虑到伦理AI讨论的发展,相关利益相关者应始终参与建设性对话,以创造负责任的AI发展和交付。