谷歌发布Gemini 3.1 Flash-Lite:主打轻量高速与极致性价比
谷歌近日正式推出 Gemini 3.1 Flash-Lite 模型。从命名可知,该模型主打轻量化与高速度。官方将其定位为迄今为止 Gemini 3系列中性价比最高 的模型。

其定价极具竞争力:每百万输入token仅需0.25美元,每百万输出token为1.5美元。作为参考,仅需约1.8元人民币的成本,即可让AI处理相当于三本《三体》全集长度的文本。
在性能方面,相较于前代主力模型 Gemini 2.5 Flash,其首次响应token时间快2.5倍,输出速度提升45%。该模型专为 大规模智能应用 设计,旨在实现低成本、高效率的批量部署。
极致性价比解析
Gemini 3.1 Flash-Lite 是Gemini 3系列中速度最快、成本最低的模型,目前已通过Google AI Studio中的Gemini API和Vertex AI平台提供。
在Artificial Analysis基准测试中,其输出速度显著优于Gemini 2.5 Flash,同时价格大幅降低。

需要指出的是,官方并未将其与 Gemini 3 Flash 直接对比,而是选择了更早的Gemini 2.5 Flash版本。两者定位有所区别:Gemini 3 Flash侧重于逻辑推理效率,而Gemini 3.1 Flash-Lite更关注极致性价比。
与市面上其他轻量级模型(如GPT-5 mini、Claude 4.5 Haiku)相比,Gemini 3.1 Flash-Lite在速度和成本上均表现出显著优势。

在Arena测评中,该模型获得1432分,与Grok-4.1-fast水平相当,在创意写作和长篇查询任务中表现突出, 领跑低价位段模型。Gemini-3.1 Pro则持续位居高价型号第一梯队,Gemini 3 Flash处于中间位置。
在Code Arena中,它与Qwen3-coder并列第35名,展现出优秀的智能Web开发能力。

此外,在GPQA Diamond和MMMU Pro基准测试上,Gemini 3.1 Flash-Lite分别取得了86.9%和76.8%的分数,超越了前几代规模更大的Gemini模型。

除了基础性能,该模型还支持 可调思考层级。开发者可根据任务复杂度,灵活调整模型的思考深度,从而在需要处理高频、大量请求的场景中,更好地 平衡速度与效果。
这意味着该模型既能处理低成本批量任务(如长文本翻译),也能胜任需要深度思考的工作(如生成用户界面、执行复杂逻辑指令)。官方示例显示,它能快速将上百种不同类别的产品信息填充至电子商务线框图中。

总而言之,该模型适用于企业及开发者在生产环境中进行实时响应与大规模任务处理,其高性价比构成了核心竞争优势。
GPT迅速回应
在Gemini 3.1 Flash-Lite发布仅两小时后,ChatGPT迅速推出 GPT-5.3 Instant 作为回应。

该模型同样主打快速响应,但侧重点在于优化用户交互体验。据官方介绍,GPT-5.3 Instant能提供更精准的回答,并在联网搜索时给出信息更丰富、语境更贴合的结果,是专为日常对话优化的版本。
有网友对两款模型进行了实测对比。在 编程测试 中,Gemini 3.1 Flash-Lite的输出简洁直接,以单文件实现核心后端功能,便于快速运行,无冗余内容。而GPT-5.3 Instant提供的代码方案更为完整和工程化,更接近真实上线情况,例如其仪表盘数据可实现实时自动刷新。
| 
—|—
Gemini 3.1 Flash-Lite | GPT-5.3 Instant
在 深度推理 任务中,两者表现相当,均能给出正确结果且推导过程清晰。Gemini 3.1 Flash-Lite正确运用了复杂物理学公式,回复结构完整,先给出简要结论再进行数学推导。GPT-5.3 Instant同样完成了推理,并额外提供了表格和通俗解释,使结果更易于理解。
| 
—|—
Gemini 3.1 Flash-Lite | GPT-5.3 Instant
然而,在大规模吞吐量和成本控制方面,Gemini 3.1 Flash-Lite显然更具优势。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:https://www.itsolotime.com/archives/24185
