亚马逊一直在开发自己的人工智能芯片以降低成本,这也有助于增加亚马逊网络服务(AWS)的盈利能力。然而,这家电商巨头正在努力开发能够与Nvidia的标准芯片相媲美的人工智能芯片。
项目迁移问题、兼容性差距和低使用率是拖慢亚马逊人工智能芯片采用的一些担忧。据Business Insider报道,这些挑战是通过机密文件和熟悉此事的消息来源确定的。
Trainium和Inferentia是亚马逊设计的一流芯片,去年年底首次亮相。据报道,去年Trainium在AWS的客户中的采用率仅为0.5%,而与之相比,Nvidia的图形处理单元的采用率要高得多。
报道称,亚马逊在2024年4月通过其AWS服务评估了不同人工智能芯片的使用百分比。与此同时,Inferentia的采用率稍高,为2.7%。Inferentia是一种专门为推理设计的芯片,推理是指最终用户使用的人工智能模型的计算过程。报告中提到了一份内部文件,其中说到:
以上声明指的是大型云客户在过渡到亚马逊定制芯片时面临的挑战。Nvidia的CUDA平台被认为对客户更具吸引力,报告将其视为一个关键原因。
AWS是全球最大的云服务提供商,现在正在开发自家的计算机芯片以便于运营。亚马逊有时会炫耀其人工智能芯片的努力,但文件中显示的情况与公司所展示的不同。
内部文件指出,该公司面临着采用率缓慢的困境,但亚马逊的CEO持有不同观点。在一季度财报电话会议上,亚马逊CEO安迪·贾西表示对AWS芯片的需求很高。
贾西还在他的投资者信中提到了AWS硅芯片的早期采用者,他说“我们已经有几个客户在使用我们的人工智能芯片,包括Anthropic、Airbnb、Hugging Face、Qualtrics、Ricoh和Snap。”与此同时,Anthropic是一个完全不同的情况,因为亚马逊是这家初创公司的最大支持者。这家云巨头已经向Anthropic投资了40亿美元,并且投资协议要求其使用AWS设计的硅芯片。
亚马逊网络服务提供了各种处理器,从Nvidia的Grass Hopper芯片到AMD和Intel。它的大部分利润来自设计自己的数据中心芯片,通过避免从Nvidia购买GPU来节省成本。
亚马逊在2018年推出了其第一款人工智能芯片Inferntia,但Nvidia仍然在提供更广泛被不同行业采用的解决方案方面领先。AWS、微软和谷歌是Nvidia最大的客户之一。所有这些巨头都通过其云服务租用GPU。
在2023年的Nvidia GTC大会上,AWS的CEO亚当·塞利普斯库出席了会议。两家公司发布了一份关于推进生成式人工智能的战略合作的联合声明。
开发人员通常更喜欢Nvidia的平台CUDA。由于Nvidia在创造这个平台上花费了多年的时间和精力,并且该行业已经采用了它,这使得处理事务对他们来说更加容易。另一方面,亚马逊仍然需要通过试错来解决这个难题。
报道由Aamir Sheikh撰写,由Cryptopolitan报道。