微软正在开发一款名为MAI-1的新型大型语言模型,与OpenAI、谷歌和Anthropic竞争。根据《The Information》的一份报告,该项目由微软的AI首席执行官穆斯塔法·苏莱曼监督。新的LLM模型的目的尚不清楚,但它将比微软之前发布的开源LLM模型更大。
MAI-1、GPT4还是Grok?
MAI-1是微软首个内部规模如此之大的LLM。它将拥有5000亿个参数,使其成为微软开发的最大语言模型之一。MAI-1超过了该科技巨头开发的所有开源模型,包括最近发布的Phi-3 mini。
据传言,GPT4的参数达到了1.74万亿个,根据其运行速度。埃隆·马斯克的Grok-1拥有3140亿个参数,被认为是最大的开源LLM。DeepMind和Claude 3没有透露其AI模型参数的数量。
为什么要构建MAI-1?
尚不清楚微软为何在向OpenAI投资100亿美元的同时开发新的LLM模型。根据《The Information》,MAI-1的目的将取决于其性能。这家科技巨头将使用各种数据源来训练该模型,并使用Nvidia GPU构建一组服务器集群。
微软的首席技术官凯文·斯科特在LinkedIn上表示,他不确定为什么这成了新闻,但他确认了MAI-1的开发。
微软在AI竞赛中处于领先地位,并将OpenAI的技术整合到其产品中,包括Copilot和Dynamics 365 AI。
据《The Information》报道,微软可能在今年晚些时候的Build开发者大会上提前预览MAI-1。预览该模型取决于未来几周的进展。
微软全力以赴发展AI
微软在人工智能和大型语言模型方面投入了大量精力。上个月,它推出了一款名为Phi-3 mini的轻量级AI模型。微软的GenAI研究副总裁塞巴斯蒂安·布贝克表示,Phi-3 mini的成本比具有类似功能的其他模型便宜得多,且是其十倍的成本效益。
今天,微软宣布在威斯康星州建立一个新的AI数据中心。美国总统乔·拜登与这家科技巨头一起宣布了这一消息。微软在AI领域不断扩大其合作伙伴关系。两个月前,微软与法国公司Mistral AI合作。它还与Vodafone合作了十年,将生成式AI集成到这家电信公司中。