AMD 发布新型人工智能芯片 Instinct MI300X,与 Meta、OpenAI 和微软合作,挑战 Nvidia 的市场地位
AMD在周三的投资者活动中宣布,它已经开发出了最新的人工智能芯片——Instinct MI300X。这一创新产品直接与Nvidia的GPU在AI领域展开竞争,并有望降低开发AI模型的总体成本。
这个新芯片基于一种全新的架构,旨在提供卓越的性能提升。其最显著的特点是配备了192GB的先进高性能内存HBM3,这种内存传输数据的速度更快,可以支持更大规模的AI模型。
AMD的首席执行官苏姿丰在活动中表示:“所有的兴趣都在云计算的大型计算机硬件和大型GPU上。”她强调,这种新的AI芯片将提供更快的响应时间和更大的性能提升,从而改善用户体验。
苏姿丰还直接将Instinct MI300X及其系统与Nvidia的主要AI GPU——H100进行了比较。她表示:“这种性能直接转化为更好的用户体验。当你向模型询问某事时,你希望它能更快回应,尤其是当回应变得更复杂时。”
值得注意的是,AMD面临着的一大问题是,那些已经在Nvidia上建立AI系统的公司是否愿意转换到另一个GPU供应商。然而,苏姿丰认为,如果能够提供具有竞争力的价格和优秀的性能,AMD有可能吸引这些客户。
为了解决软件兼容性问题,AMD改进了名为ROCm的软件套件,该软件套件与Nvidia的CUDA软件竞争。这将是吸引AI开发者的一个重要因素。
目前,AMD尚未公布Instinct MI300X的定价。但考虑到Nvidia的类似芯片(如H100)的售价约为40,000美元一颗,苏姿丰告诉记者,为了说服客户购买,AMD的芯片购买和运营成本必须低于Nvidia的。
在发布会上,AMD宣布已经与一些对GPU需求量最大的公司签约使用该芯片,包括云计算和AI领域的领导者Meta和微软。根据市场研究公司Omidia最近的报告,这两家公司在2023年是Nvidia H100 GPU的最大购买者。
Meta表示,他们将使用Instinct MI300X GPU处理AI推理工作负载,如处理AI贴纸、图像编辑和运行其助手。微软首席技术官Kevin Scott也表示,该公司将通过其Azure网络服务提供对MI300X芯片的访问。
此外,甲骨文的云服务也将使用这些芯片。同时,OpenAI也表示将在其软件产品之一Triton中支持AMD GPU。Triton不是像GPT那样的大型语言模型,而是用于AI研究的,以访问芯片功能。
尽管AMD尚未预测Instinct MI300X的巨大销售额,但他们预计2024年的总数据中心GPU收入约为20亿美元。相比之下,Nvidia在最近一个季度的数据中心销售额超过了140亿美元,但这包括了除GPU之外的其他芯片的销售。
然而,考虑到AI GPU市场的巨大增长潜力,AMD对未来充满了期待。他们预测未来四年的AI GPU总市场可能攀升至4000亿美元,这是该公司之前预测的两倍。这显示了市场对高端AI芯片的需求是多么的迫切。
在投资者活动结束时,苏姿丰向记者们暗示,尽管AMD正在与Nvidia展开竞争,但他们并不认为必须击败Nvidia才能在市场上取得成功。她表示:“可以明确地说,Nvidia现在必须占据绝大多数市场。”她还补充说:“我们认为到2027年,它可能超过4000亿美元。我们可以从中分得一杯羹。”
总的来说,AMD通过发布Instinct MI300X芯片展示了他们在AI领域的实力和雄心。这一创新产品将为云计算和AI领域的客户提供了新的选择,并有望降低开发AI模型的总体成本。虽然面临着与Nvidia的竞争和市场的挑战,但AMD似乎对自己的未来充满了信心。
转载请注明:AMD 发布新型人工智能芯片 Instinct MI300X,与 Meta、OpenAI 和微软合作,挑战 Nvidia 的市场地位 | AI导航网