21世纪经济报道记者倪雨晴 深圳报道算力江湖,硝烟四起。
6月14日凌晨,AMD在旧金山的发布会上推出了新一代AI芯片、数据中心CPU、以及DPU。在生成式AI浪潮之下,最受关注的新品莫过于AI芯片Instinct MI 300X,直接对标英伟达H100。
【资料图】
AI也是本场发布会的关键词。AMD CEO苏姿丰在会上谈道,目前仍处于AI生命周期非常、非常早的阶段。AI加速卡的市场空间将从2023年的300亿美金增长到2027年的1500亿美金,年复合增速超过50%。
AI世界滚滚向前,芯片界的老对手们也摩拳擦掌,欲夺取王冠上的明珠。在当前GPU制霸的AI芯片市场上,英伟达一骑绝尘,随着AMD新系产品线的亮相,AMD也将成为AI战场上的有力竞争者。
值得注意的是,芯片平台之外,AMD也在加大软件生态的投入,欲在软硬件双线上和对手们一较高下。不过眼下战况依然激烈,从当天股价看,AMD下跌3.6%,英伟达股价则上涨近4%,市值超过1万亿美元。
尽管挑战不小,在过去的十年中,苏姿丰带领AMD逆袭重生,如今在AI角力场上能否开启新的故事,业内外皆拭目以待。
AMD的AI野心近年来,AMD一直在全面强化自身的算力。通过收购ATI、Xilinx、Pensando,AMD逐步拓展产品矩阵,成为一家集CPU、GPU、DPU、FPGA于一身的芯片企业。
在AI领域,AMD此次发布了Instinct MI 300系列的新产品;在CPU领域,AMD也推出了EPYC的一系列更新,包括新一代数据中心CPU第四代EPYC处理器Genoa、针对云原生计算的第四代EPYC处理器Bergamo、以及EPYC 处理器Genoa-X。
其中,AMD Instinct MI 300系列成为关注焦点。在发布会上,AMD正式推出Instinct MI 300X,一款专门面向生成式AI的加速芯片,拥有1530亿个晶体管。事实上,AMD在早些时候已经公布了该系列的首代产品Instinct MI 300A,它拥有1460亿个晶体管。
两者不同之处在于,Instinct MI 300A是将CPU和GPU以chiplet的方式集成到一个芯片,并采用统一的内存架构,即采用了CPU+GPU的架构,对标的是英伟达的GH200;而来到最新款的Instinct MI 300X,则没有集成CPU内核,为GPU芯片,对标英伟达的H100。
尽管英伟达的GPU十分强劲,但是AMD的MI 300X有其优势,尤其在存储性能上。据悉,MI 300X芯片算力较MI 300A更加强大,其HBM(高带宽存储器)容量及显存带宽,分别是英伟达H100的2.4倍及1.6倍,由于HBM容量大幅提升,单颗MI 300X芯片可以运行800亿参数模型。
不过MI 300系列芯片距离实际应用还需要一定时间,其中,MI 300A芯片目前已经向客户送样,MI 300X芯片将在今年第三季度送样。
随着大模型的玩家越来越多,以GPU为代表的AI芯片需求不断增加。根据Precedence Research,2022年全球AI芯片市场规模为168.6亿美元,将以每年约30%的速度增长,预计到2032年达到约2274.8亿美元。
面对新的机遇,AMD也在不断升级,一方面是持续进化芯片性能,另一方面也在构建软件生态能力。正如CUDA是英伟达坚固的护城河,AMD正在打造开放的ROCm平台。据介绍,AMD拥有一套完整的库和工具ROCm,可以用于其优化的AI软件堆栈,而在过去的发展中,公司也在不断优化 ROCm套件。
在会上,苏姿丰说道:“人工智能是塑造下一代计算的决定性技术,也是AMD最大的战略增长机会。”
挑战英伟达从MI 300A到MI 300X,AMD不断向英伟达发起挑战,攻势十足,不过当前竞争环境依然激烈。
一方面,英伟达凭借着数十年在加速计算领域的积累,壁垒高企,多位业内人士向21世纪经济报道记者指出,目前在AI训练芯片中,英伟达依然占据着9成市场。
仅以AI服务器的场景为例,TrendForce集邦咨询向记者提供数据显示,预计英伟达GPU为AI服务器市场搭载主流,市占率约60~70%,其次为云端业者自主研发的ASIC芯片,市占率逾20%。
TrendForce集邦咨询还称,下半年ChatBOT及AI运算风潮将持续渗透至各种专业领域(如云端/电商服务、智能制造、金融保险、智慧医疗及智能驾驶辅助等)的开发市场,同步带动每台搭配4-8张GPU的云端AI服务器,以及每台搭载2-4张GPU的边缘AI服务器应用需求渐增,预估今年搭载A100及H100的AI服务器出货量年增率逾5成。
芯片行业专家姚嘉洋向21世纪经济报道记者表示:“英伟达在GPU架构的迭代上,一直都有属于自己的发展路径,这几年的发展,也让英伟达跃居AI算力芯片领域的领导者,在AI算力领域上,AMD和Intel近年来都是处于苦苦追赶的情况。”
他进一步指出,英伟达在AI领域,很早就导入了Tensor运算单元(张量运算,是深度学习运算加速的核心),提升AI算力,这是英伟达在奠定AI计算芯片领先地位过程中很重要的一步。
在十多年前,外界谈及英伟达挑战时,总会提及英特尔、AMD进入到GPU市场带来的竞争。而现在随着英伟达量产Grace CPU,英特尔和AMD深受影响。也有专家向记者指出,多年前英伟达提供GPU训练alexnet、以及谷歌TensorFlow的时候,AMD大概落后两年左右,英特尔也未见突破,随后软硬件生态之间的差距进一步拉大。
另一方面,英伟达十年磨一剑打造了CUDA软件生态帝国,而AMD ROCm相比英伟达也是CUDA起步较晚。华泰证券的研究报告称:“我们认为目前ROCm的不足之处在于操作系统长期只支持Linux,最近才登录Windows;加上长期只支持高端GPU,如Radeon Pro系列等,直到今年4月才扩展至一些消费级GPU;另外,CUDA在今年达400万以上的开发者,也是ROCm无法相比。”
同时报告也指出,AMD目前也正积极拓展ROCm生态圈,包括支持Windows操作系统、在AI领域开拓更广泛的框架,如MIOpen和MIVisionX,以及支持更多的软件,包括TensorFlow、PyTorch等。ROCm在进一步通过HIP兼容CUDA的同时,也与客户包括微软等合作重构自己的生态。