
2025年12月18日,谷歌正式发布Gemini 3 Flash模型。该模型成功将Gemini 3 Pro级别的强大推理能力与Flash系列标志性的低延迟、高效率和成本效益相结合,在多项基准测试中表现卓越,为AI模型的速度与性能平衡设立了新标准。
2025年12月18日,谷歌正式推出了其Gemini 3系列的最新成员——Gemini 3 Flash。此次发布被视为谷歌在AI模型“效率竞赛”中的一次关键布局,旨在打破AI领域长期存在的性能、成本与速度难以兼得的“不可能三角”。
该模型的核心突破在于其成功实现了“低成本”与“高智能”的并行。官方数据显示,Gemini 3 Flash的响应速度比前代旗舰Gemini 2.5 Pro快了3倍,而每次推理的成本大幅降低。其定价极具竞争力,输入费用为每百万token 0.50美元,输出为每百万token 3.00美元,成本效益显著。

令人瞩目的是,Gemini 3 Flash在多项权威基准测试中展现了超越期待的强劲性能,甚至在部分领域反超了自家的旗舰模型Gemini 3 Pro:
- 在评估多模态理解和推理能力的MMMU Pro测试中,得分高达81.2%,略微超过了Gemini 3 Pro的81.0%。
- 在衡量编程智能体能力的SWE-bench Verified测试中,获得了78%的分数,同样超过了Gemini 3 Pro。
- 在博士级难度的GPQA Diamond推理测试中,取得了90.4%的优异成绩,展现出前沿的推理能力。

谷歌将Gemini 3 Flash定位为处理高频交互与实时任务的“主力模型”,而非Pro版本的简化版。它已迅速获得企业级客户的认可,例如,法律AI公司Harvey反馈其在实际法律基准测试中性能提升超过7%,且低延迟特性对处理海量法律文档至关重要。开发者工具Cursor也表示,该模型在调试和定位Bug根本原因时表现快速且准确。
从即日起,Gemini 3 Flash已开始向全球用户推送。普通用户可以在Gemini App和Google Search的AI模式中免费体验该模型,它已成为这些服务的默认模型。开发者则可以通过Google AI Studio、Vertex AI以及新的Agent开发平台Google Antigravity等渠道使用其API。
Gemini 3 Flash的发布,标志着AI模型的竞争重点从单纯追求性能的“数值竞赛”,转向了优化性能、成本、速度平衡的“效率竞赛”。它使得前沿的AI推理能力能够以更低的门槛、更快的速度触达更广泛的用户和开发者群体。
