当前位置: 首页 > 滚动 > >正文

与英伟达“比武”!AMD推出AI芯片,华尔街为何感到失望?

来源:富途牛牛    时间:2023-06-14 19:49:45

香港万得通讯社报道,$美国超微公司(AMD.US)$周二表示,其最先进的人工智能芯片MI300X将于今年晚些时候向部分客户发货。

据分析师称,AMD的声明是对英伟达的最大挑战,$英伟达(NVDA.US)$目前以超过80%的市场份额主导着人工智能芯片市场。GPU是OpenAI等公司用来构建ChatGPT等尖端人工智能程序的芯片。


(资料图片仅供参考)

如果AMD的人工智能芯片(AMD称之为“加速器”)被开发人员和服务器制造商接受,作为英伟达产品的替代品,那么对于这家以传统计算机处理器闻名的芯片制造商来说,这可能是一个充满潜力的巨大市场。

AMD首席执行官苏姿丰(Lisa Su)周二对投资者和分析师表示,人工智能是该公司“最大、最具战略意义的长期增长机会”。她说:“我们认为,数据中心人工智能加速器(市场)将以超过50%的复合年增长率,从今年的300亿美元左右增长到2027年的1500亿美元以上。”

虽然AMD没有透露价格,但此举可能会给英伟达的GPU带来价格压力,比如H100,它的价格可能在3万美元以上。较低的GPU价格可能有助于降低生成人工智能应用程序的高成本。

人工智能芯片是半导体行业的亮点之一,而传统的半导体处理器销售引擎——个人电脑销售却表现低迷。上个月,AMD首席执行官苏姿丰在财报电话会议上表示,虽然MI300X将于今年秋季提供样品,但明年将开始大量出货。

AMD表示,最新的MI300X芯片及其CDNA架构是为大型语言模型和其他尖端人工智能模型设计的。苏姿丰说:“这其中的核心是GPU。GPU正在实现生成式人工智能。”

MI300X可以使用高达192GB的内存,这意味着它可以容纳比其他芯片更大的人工智能模型。例如,英伟达的竞争对手H100只支持120GB内存。

生成式AI应用程序的大型语言模型往往需要大量内存,因为它们运行越来越多的计算。AMD演示了MI300x运行400亿参数的Falcon模型,而OpenAI的GPT-3模型有1750亿个参数。苏姿丰表示:“模型对容量的要求越来越大,你实际上需要多个GPU来运行最新的大型语言模型。”她指出,随着AMD芯片上内存的增加,开发人员将不需要那么多GPU。

AMD还表示,将推出一款Infinity Architecture,在一个系统中集成8个M1300X加速器。英伟达和谷歌也开发了类似的系统,将8个以上GPU集成在一个盒子里,用于人工智能应用。

人工智能开发人员历来偏爱英伟达芯片的一个原因是,它有一个开发完善的软件包,被称为CUDA,使他们能够访问芯片的核心硬件功能。而AMD周二表示,它拥有自己的人工智能芯片软件,名为ROCm。

AMD总裁Victor Peng 表示:“我们在构建强大的软件堆栈方面取得了巨大进展,该软件堆栈与模型、库、框架和工具的开放生态系统一起工作。”

尽管如此,投资者似乎对AMD的新产品并不“买账”,他们已经对人工智能的增长抱有极高的期望。截至周一收盘,AMD股价今年累计上涨了92%,但在周二的发布会上,AMD股价跌超3%。

与以往的发布会不同的是,AMD没有透露谁将采用MI300X或更小的版本MI300A。该公司没有详细说明这款芯片的成本是多少,也没有说明它将如何提振销售。

TIRIAS Research首席分析师Kevin Krewell表示:“我认为,没有(大客户)表示会使用MI300A或X,这可能会让华尔街感到失望。他们希望AMD传达出他们已经在某些设计上取代了英伟达的信息。”

Moor Insights & Strategy分析师Anshel Sag表示:“尽管AMD在硬件性能方面具有竞争力,但人们仍然不相信AMD的软件解决方案能与英伟达竞争。”

编辑/Somer

X 关闭

推荐内容

最近更新

Copyright ©  2015-2022 华声服装网版权所有  备案号:京ICP备2021034106号-36   联系邮箱:55 16 53 8 @qq.com