在英伟达凭借其GPU(图形处理器)赢得AI计算市场绝大部分份额之际,另一大GPU巨头AMD何时推出有竞争力的产品,成了行业普遍关心的话题。如今,后者终于给出正面回应。
美国时间6月13日,AMD宣布即将推出的最先进的数据中心GPU MI300X,将于今年晚些时候开始向部分客户发货。MI300X由台积电代工,其第三代CDNA架构集成了高达1530亿个晶体管,使之成为目前全球最大的逻辑处理器。
MI300X针对大语言模型设计,AMD称该产品可加快生成式人工智能的处理速度,内存高达192GB,超过英伟达H100芯片的120GB内存。
大内存也被AMD视为MI300X的一大卖点。在发布会上,AMD CEO苏姿丰称,“你拥有的内存容量越多,芯片可以处理的模型集就越大。我们在客户的工作负载中看到这款芯片运行速度快了许多,我们认为它非常出众。”
高内存意味着MI300X可以比英伟达H100 GPU运行更大的模型。据苏姿丰介绍,MI300X可以支持装载400亿个参数的Hugging Face AI模型。随着模型规模越来越大,就需要多个GPU来运行最新的大型语言模型,而当MI300X配置更大的内存,开发人员将不再需要更多的GPU,意味着可以节约成本。
基于MI300X,AMD还宣布了Instinct平台,其搭载8颗MI300X,提供总计1.5TB的内存,意味着该计算平台能训练参数规模更大的大语言模型。
AMD还试图弥补其AI计算软件短板,缩小与英伟达CUDA平台的差距。在发布会上,AMD更新了其ROCm软件生态进展,该软件与英伟达的CUDA软件平台竞争。AMD总裁Victor Peng称,在构建人工智能软件平台上,AMD取得巨大进步,ROCm软件栈可与模型、库、框架和工具的开放生态系统配合使用。
除了AI软硬件产品,AMD此次发布会还介绍了第四代霄龙服务器处理器。AMD称,第四代霄龙处理器采用Zen 4c核心,比英特尔Xeon 8490H的效率高1.9倍。谷歌、Meta和微软将是首批采用该产品的企业。
在ChatGPT掀起的新一轮AI大模型浪潮中,提供底层算力的英伟达是最大的受益者,其GPU产品在大模型训练上几无替代品。英伟达CEO黄仁勋曾在3月举办的GTC大会上称,英伟达AI超级计算机DGX是大模型背后的引擎。
业内期待AI芯片市场能引入新的竞争者,包括AMD、英特尔等推出相关产品。从此次发布会来看,AMD希望其数据中心GPU能帮助客户降低成本,但该公司并未披露新芯片的定价。
随着AMD收购赛灵思完成后,其在AI领域的力度明显加大,不仅强化了市场存在感,也希望把握生成式AI带来的重大机遇。苏姿丰称,目前市场仍处在AI生命周期非常早期的阶段,预计数据中心AI加速器的整体潜在市场规模将在2027年增长5倍,超过1500亿美元。
而此次MI300X GPU、新一代服务器处理器等产品披露进展后,AMD的计算产品线将从CPU、GPU、FPGA、DPU延伸至软件平台,形成与英伟达、英特尔的全面竞争格局。在最重要的数据中心人工智能战场上,届时市场也将能对AMD过去几年的多笔收购、人才引入、架构重组进行“验收”。
资讯来源:美股投资网 TradesMax