当地时间4月2日,谷歌方面正式发布并开源新一代大模型Gemma 4系列,并表示这是其迄今为止最智能的开源模型,专为高级推理与智能体工作流打造。同时谷歌方面指出,Gemma 4系列能够实现突破,得益于源自社区的强大推动力。据悉,自初代发布以来,Gemma模型累计下载量已超过4亿次,社区衍生版本超过10万个。
据悉,Gemma 4系列基于Gemini 3同源打造,在推理、智能体工作流、代码生成、多模态、上下文等方面均实现了优化。Gemma 4系列包含4种规格的模型,分别是高效20亿参数版(E2B)、高效40亿参数版(E4B)、260亿混合专家模型(MoE)与310亿稠密模型(31B),而且均能处理复杂的推理和智能体工作流程。

据了解,Gemma 4系列在同等规模下实现了卓越的性能,其中31B版本Gemma 4目前在Arena AI开源模型排行榜中位列全球开源模型第三,性能表现甚至超越了规模是其20倍的模型。而未量化的bfloat16权重可以高效地加载到单个80GB NVIDIA H100 GPU上,量化版本则可在消费级GPU上原生运行。
对此谷歌方面表示,对于开发者而言,这种全新的参数智能水平意味着能以更低的硬件开销实现前沿级的功能。
而E2B版本和E4B版本Gemma 4重新定义了在端侧设备上本地部署大模型的价值,相比单纯堆砌参数,更侧重多模态能力、低延迟处理与生态无缝集成。据谷歌方面介绍,这些模型从设计之初就旨在最大限度地提高计算和内存效率,在推理过程中可有效激活20亿至40亿参数,从而节省内存并延长续航时间。目前,这些模型能在手机、树莓派、Jetson Orin Nano上离线运行,并且延迟接近零。
值得一提的是,在开源许可层面,此前Gemma系列采用的是谷歌自定义开源协议,存在诸多商用方面的限制。Gemma 4则首次采用Apache 2.0协议,为开发者提供了更充分的灵活性。
对此Hugging Face联合创始人兼首席执行官克莱门特·德朗格表示,“Gemma 4以Apache 2.0许可证发布是一个重要的里程碑。我们非常激动能够从发布第一天起就在Hugging Face上为Gemma 4用户提供支持”。
【本文图片来自网络】
