AMD正式发布AI芯片,英伟达该紧张起来了

要说在这一轮AI热潮中最受瞩目的存在,无疑非OpenAI莫属了,毕竟ChatGPT以及后续的GPT-4真正意义上让大众感受到了何为人工智能。但在这一轮风口中真正闷声发大财的莫过于英伟达,由于训练AI大模型需要海量的算力,而目前算力的核心供应商就正是英伟达,因此掌握了AI大模型命脉的这一事实,也使得其股价自今年以来累计上涨了高达220%。

1917247801221709566938481627429399081641494710072023012716561449880 (1).jpg

眼见英伟达的GPU,特别是Ampere A100、Hopper H100成为炙手可热的香饽饽,不甘受制于英伟达的各路AI厂商也开始八仙过海各显神通,其中自然少不了在GPU领域与英伟达打擂台的AMD。


日前在“Advancing AI”的活动上,AMD方面推出了用于大模型训练和推理的MI300X GPU,和用于HPC(高性能计算)的MI300A APU。随即微软与Meta两大巨头也确认,他们将使用AMD最新的AI芯片Instinct MI300X。


微软和Meta为AMD站台最主要的原因,莫过于Instinct MI300X本身出色素质,AMD首席执行官苏姿丰博士更是表示,Instinct MI300X“能与英伟达H100 HGX媲美”。据悉,其是由8个MI300X GPU组成,可提供高达1.5TB的HBM3内存容量,并内置了8个XCD(加速计算芯片)、共304个基于CNDA 3架构的计算单元以及4个IOD(接口芯片),而使用8个HBM3(三星高性能存储芯片)堆栈,则为其带来了高达192GB的内存以及5.3TB/s的最大带宽。

641 (2).jpg

AMD方面声称,与英伟达H100 HGX相比,Instinct MI300X加速器在运行大语言模型推理时的吞吐量和时延表现更好。而在实际测试中,由于Instinct MI300X更强大的存储性能,在70亿参数的Llama2和160亿参数的Bloom推理能力方面,推理效率分别达到了H100的1.4倍和1.6倍。


如果单纯从纸面数据上来说,英伟达在AI领域一家独大的日子可能要一去不复返了,但显然纸面数据并不能说明一切。


目前,软件生态的壁垒就是AMD在算力芯片领域赶超英伟达时,所需要面对的一大挑战。由于训练和运行AI大模型不仅取决于GPU性能,工具链和资源库同样也必不可少,而AMD的ROCm软件生态却显然还没有英伟达的CUDA完善。


早在2006年英伟达就推出了CUDA开发平台,开发者可以借助这一平台,使用C语言编写GPU片上程序,来完成复杂的计算。这也让GPU从此实际脱离了图像处理的单一用途,成为了真正的GPGPU。

641 (3).jpg

经过长达十余年时间的积累,目前CUDA的库、工具,以及资源生态系统,也使得开发者能够轻松借助GPU的并行计算能力,构建更强大和高效的AI模型,同时实现高性能、高通用性、高易用性,以及针对不同场景的深度优化。而反观AMD的ROCm,起步则要晚得多,其2016年才问世,而且与Intel在CPU领域的竞争更是让AMD在过去几年基本是对ROCm的态度是“放养”。


所以尽管ROCm几乎是全盘复刻了CUDA的技术栈,而且采取了开源策略,但其与CUDA最起码也有十年左右的差距。以至于目前AMD在提供AI算力上采取的解决方案,是基于ROCm翻译实现“CUDA兼容的AMD GPU”,即通过二进制翻译/进程虚拟机技术去解析和转换CUDA PTX通用指令到Radeon指令,这个方案虽然让AMD的GPU得以切入AI算力领域,但代价却是基于AMD GPU的开发工作,需要花费更多的时间、且在迭代和生态延展性上存在缺陷。

641 (4).jpg

简而言之,AMD GPU在AI跑分上尽管是单卡性能爆表,但组成集群应用在生产力环境下就暴露短板了。力不虚掷、功不唐捐,在CUDA加持下的英伟达GPU虽然未必是性能的最优解,可在当前的AI大模型训练和推理上却是效费比的最优解,而英伟达耕耘了十余年的CUDA生态,更是已成为了事实上的工业标准。


“AMD YES,但我选英伟达”这句调侃,其实在消费级市场是毫无问题的,毕竟对于普通用户而言,用得舒心才是最重要的,然而企业的考量则完全不同。“不把鸡蛋放到同一个篮子里”不仅仅是苹果的指导思想,也几乎适用于每一个科技巨头。


如今AI算力已经是大模型得以运转的燃料,为了保证“能源安全”,微软、Meta等巨头自然不愿意只靠英伟达这一家供应商,而AMD的Instinct MI300X则给了他们一个新的选项。

641 (5).jpg

虽然Instinct MI300X的实际表现大概率不会强于Hopper H100,但如果没有前者,英伟达自然就会有恃无恐。现在的情况是除了OpenAI之外,其他厂商的大模型基本都是在赔本赚吆喝阶段,这一年以来的投入也更像是在给英伟达打工。这一现实必然不会如微软、Meta所愿,其中前者投了上百亿美元给OpenAI,后者则干脆开源了自家的LLaMA 2大模型,这两家搭台唱的这出AI大模型戏终归是为了自己赚钱,而不是让英伟达白白捡便宜。


貌合神离就是当下一众积极投身AI赛道的大厂,与英伟达之间关系的真实写照,所以购买英伟达的GPU训练自己的大模型虽然可以,但指望把后背交给英伟达显然是不可能的。所以即便如今在AI算力领域,AMD暂时还不能对英伟达构成威胁,但这已经足以让后者感到警惕,进而对微软、Meta、亚马逊等客户采取更加怀柔的态度,而这显然也正是这些巨头想要的结果。


【本文图片来自网络】

踩(0)

最新文章

相关文章

大家都在看