谷歌(Google)正式发布了其 Gemini3系列中的 最新 成员——Gemini3.1Flash-Lite。 作为该系列中速度最快且最具成本效益的轻量级模型,它的问世标志着谷歌在“高性价比AI”赛道上再次发力,试图为开发者提供更 极致 的实时交互体验。

在性能表现上,Gemini3.1Flash-Lite 展现了令人惊叹的进化。根据 权威 评测平台的数据显示,与前代2.5Flash 相比,新模型的首字响应速度(TTFT)实现了2.5倍的爆发式增长,整体输出速度也同步提升了45%。这种极低的延迟特性,使其能够完美胜任需要即时反馈的对话机器人及实时处理场景。

除了“快”,这款模型还具备 极高 的“质价比”。谷歌为其制定了极具竞争力的定价方案:每百万输入 Token 仅收0.25美元。在多项核心能力测试中,3.1Flash-Lite 甚至展现出了越级挑战的实力,在多模态理解与逻辑推理指标上全面领先 同级 别竞品,部分数据甚至超越了体积更大的前代模型。

此外,谷歌还在 AI Studio 和 Vertex AI 中为该模型标配了创新的“思考层级”功能。开发者可以根据业务需求灵活调节模型的“思考深度”:对于简单的翻译或内容审核,可追求 极致 效率;而面对复杂逻辑模拟或数据看板生成,则可激发更深层次的推理潜力。目前,该模型已通过 API 向预览版用户及企业级平台同步开放,为全球开发者构建低延迟 AI 应用提供了新利器。
划重点: