Gemma 4 发布:基于 Apache 2.0 的最强开源 AI 模型
4/3/2026
全球人工智能开发的底层基础架构迎来了决定性的升级。在上一代模型突破 4 亿次下载的庞大开发者生态基础之上,Google 正式推出了迄今为止最智能的开源模型系列——Gemma 4。该系列彻底打破了行业壁垒,全面采用商业友好的 Apache 2.0 开源许可协议。Gemma 4 专为高级逻辑推理和复杂的代理 (Agentic) 工作流而构建,共提供四种极具通用性的尺寸:Effective 2B (E2B)、Effective 4B (E4B)、26B 混合专家 (MoE) 以及 31B 密集型 (Dense) 模型。
https://storage.googleapis.com/gweb-uniblog-publish-prod/documents/gemma-4__elo-score__eval__dark_Web.png
客观的性能数据重新定义了模型效率的边界。在业界权威的 Arena AI 文本基准测试中,31B 模型以 1452 的 Elo 得分强势登顶全球开源模型第三名;同时,26B 模型以 1441 分稳居第六名,其性能表现直接碾压了体积大其 20 倍的竞争模型。Gemma 4 原生支持超过 140 种语言,能够极其稳定地执行函数调用、输出结构化 JSON 并生成高质量的离线代码。此外,边缘模型的上下文窗口达到 128K,而大型模型更高达 256K,单次提示即可无缝处理超长代码库。
极致的硬件适配性是 Gemma 4 架构的核心。26B 和 31B 模型的未量化 bfloat16 权重可完美部署于单张 80GB NVIDIA H100 GPU 上。其中 26B MoE 模型专为极低延迟而优化,在推理时仅精确激活 38 亿个参数,将每秒 Token 输出量最大化。在移动与物联网 (IoT) 领域,多模态的 E2B 和 E4B 模型重新定义了端侧计算能力。它们原生支持视觉与音频输入,能在智能手机、树莓派 (Raspberry Pi) 和 NVIDIA Jetson Orin Nano 上以近乎零延迟的方式完全离线运行。Android 开发者现已能够通过 AICore 开发者预览版直接构建代理工作流,并确保与未来的 Gemini Nano 4 实现严格的向前兼容。
https://storage.googleapis.com/gweb-uniblog-publish-prod/documents/gemma-4-table_light_Web_with_Arena.jpg