2026年5月13日,联发科召开了新一届的天玑开发者大会。在此次活动的主论坛结束后,我们三易生活也与联发科方面相关人士进行了深入的沟通。

在这次交流中,联发科方面提到了一个我们此前从未想过的情况,那就是如今手机上的App已经开始出现“争抢NPU”的现象。
当然,大家都知道,如今的智能手机、特别是中高端机型,已经普遍开始搭载端侧AI功能。但在大多数用户的印象里,手机的NPU似乎除了跑这些系统级AI功能,以及在拍照时可能会被调用外,平时好像也没啥“存在感”,为什么NPU的算力调度就成了一个值得在开发者大会上来讨论的“问题”了呢?
如今的手机App,可能比你想的还要“滥用”NPU
从过往的资料来看,智能手机行业的第一颗独立NPU,是高通在2013年10月发布的“类脑计算”芯片Zeroth。它的相关技术后续被融入到2015年发布的骁龙820中,最早专用于加速杀毒软件,此后也逐步被用在早期的“AI拍照”场景中。

但现在的情况已经完全不一样了。首先,各家手机厂商都会有一些“长期占着”NPU的后台AI服务,比如人脸识别、抬腕亮屏感知、离线语音唤醒、相册后台自动分类等。

其次,大家熟悉的聊天软件现在就会用NPU来做本地语音转文字的运算,短视频平台会用NPU在后台跑视频(画质)增强算法,购物App会拿NPU推理本地比价和推荐模型,甚至各家的手机输入法本质上也会集成小尺寸模型,通过NPU来实现智能联想、上下文润色、打字防误触等等功能。

当然,这还不包括一些NPU算力的“重需求场景”。比如,相机软件的本地算法优化,视频会议软件的实时摄像头增强,甚至一些游戏也开始基于NPU来做超帧超分、驱动更高智能化的NPC“陪玩”。
更糟糕的是,NPU的特性决定了它往往很难“优化”
众所周知的是,如今许多手机厂商都会在发布新品或新版系统时宣称,他们用了怎样的技术去优化App对CPU、GPU的算力“抢占”现象,可以让前台App更流畅、让手机的功耗和发热更低等。
为什么这种优化能够成立?其实基本原理就在于不管CPU还是GPU,它们所执行的代码都是“一段一段”的。假设某个游戏有几百GB,但实际上它当前提供给GPU的“真实负载”,可能只有屏幕上玩家视角所看到的那几个物体、几百MB的数据量而已。

但是NPU的情况就不一样了。原因也很简单,因为NPU在运行AI模型时,需要先将整个AI模型读取到内存,然后才能进行计算。而且很多时候,这个读取的过程反而比真正“执行”起来之后要慢得多。
正因如此,站在开发者的角度来说,只要他们需要用到NPU算力,就一定会想尽办法保证自己的模型被强制“驻留”在NPU内部,从而最大程度提高响应速度。而这,就造成了联发科方面所指出的App“争抢NPU”现象。
这个问题如何解决?联发科已经做好了安排
很显然,既然是联发科方面主动提出“NPU在手机上被争抢”这一现象,那么他们自然不可能没有与之对应的解决方案。而这些解决方案,就在今年的天玑开发者大会上悉数亮相了。

首先,针对诸如手机这类低功耗、注重能效的设备,联发科在天玑9500里设计了“双NPU”架构。即一颗低功耗的eNPU(嵌入式NPU)专门分流后台常驻的唤醒、相册分类、环境感知等功能,从而让“主NPU”可以专心应对第三方App的模型计算需求。

其次,针对功耗上限高得多,也不怎么需要为散热发愁的车载平台,联发科则准备了规格大得多的“双AI引擎”。
通过在一颗芯片内同时集成联发科自有的深度学习加速器,以及来自NVIDIA的Blackwell GPU核心,使得这两个单元同样可以起到“分流”AI计算任务,从而实现同时运行更多车内大模型的效果。而且与智能手机SoC相比,C-X1平台的全模态AI算力高达400 TOPs,能够实现更大规模、更精细的用户需求感知与AI推理。

最后,除了上述两种硬件层面的专门设计,联发科方面还在今年的天玑开发者大会上,正式公布了天玑AI开发工具3.0。它毫无疑问就提供了对AI计算任务的分流能力,即可以让CPU、GPU也参与不同类型的大模型推理加速。

在此基础上,联发科的LowBit压缩工具包允许先将模型“压缩”再分配算力,可节省最高58%的内存占用。而新增的eNPU工具包,则首次为第三方应用开放了eNPU的访问和优化接口,解决了第三方应用只能“抢夺”主NPU算力的情况。
再加上可视化部署与自动架构转换,就让开发者可以更简单地在App设计阶段就将内置的模型,为CPU、GPU或eNPU做好适配,并在不牺牲用户体验的前提下,让各种不同的“AI应用”可以充分利用异构算力、同时运行。
低端机情况会更糟吗?这是个“奢侈的烦恼”
可能有的朋友会担心,旗舰SoC、旗舰车载平台尚且要想办法解决“抢占NPU”的问题,那么中低端、入门级的设备岂不是要被未来的“AI App”“AI OS”直接“卡爆”?

别说,这个问题还真不存在。但这不是因为开发者有“良心”,而是因为现阶段的端侧大模型功能普遍对硬件规格设置了门槛。如果手机的性能达不到、算力不够用,AI功能就会自动屏蔽、不再启用。
当然,站在用户的角度来说,他们倒未必会把这视作一种“歧视”,甚至有些发烧友或许还希望找到办法,在旗舰机上也“屏蔽”后台AI功能。而这自然也反映了AI应用生态除了“算力不够用”外,目前亟待解决的另一个问题。
