人工智能(AI)行业又有新消息传来。美国超威半导体公司(AMD)于当地时间12月6日举行“Advancing AI”发布会,发布了备受外界期待的MI300系列芯片产品,新产品可用于训练和运行大型语言模型,比前代产品拥有更好的内存容量和更高的能效。AMD首席执行官苏姿丰(Lisa Su)更是将其中一款产品Instinct MI300X加速器描述为“世界上性能最高的加速器”。AI应用快速发展正在推动芯片行业的竞争日趋白热化。
Instinct MI300X加速器由8个MI300X GPU组成,GPU即高级图形处理器,最初设计用于图形渲染和处理,后来被发现在处理并行计算方面具有较强性能,可以用来加速各种计算密集型的应用程序。和CPU、FPGA等芯片相比,GPU是目前最新一代的AI训练芯片。英伟达的“明星产品”GPU芯片H100一年卖出数十万块,得益于此,公司业绩屡创新高,三季度实现收入181.2亿美元,同比增长206%。
人工智能的数据模型对高性能、高算力的AI芯片需求极大。有预测显示,未来4年内,AI芯片行业的规模将超过4000亿美元。在强劲的需求下,AMD、英特尔、IBM等科技巨头都在研发AI芯片,谷歌、微软、阿里、百度等公司也纷纷布局自研芯片。本次AMD推出的MI300X芯片就被寄予厚望,其有着超过1500亿个晶体管,内存是英伟达H100芯片的2.4倍,在训练大型语言模型方面与英伟达的H100芯片相当,但在推理方面表现更好。AMD的新产品得到了不少大客户的青睐,微软、Meta、甲骨文等都宣布将采用AMD的芯片产品。
不过,AMD芯片产品的销量仍将受到一系列因素的制约,例如价格是否有竞争力、软件是否适配等。其他芯片巨头也在加速研发推出新产品,此前英伟达已经发布了专为训练和部署各种人工智能模型而设计的下一代芯片H200,预计将于2024年二季度出货;英特尔将提升其AI芯片的HBM(高带宽内存)容量作为研发重点。可以看到,由于大模型的出现,AI芯片的发展目标已经转向了高算力、高灵活性和低功耗,在更强芯片的支撑下,将会有更多AI相关应用涌现,为人们的生活带来惊喜。(周明阳)