谷歌性价比之王 Gemini 2.5 Flash-Lite发布:最快轻量版AI模型! 原创

发布于 2025-6-18 16:47
浏览
0收藏

今天凌晨,谷歌更新了 Gemini 2.5 系列模型:Gemini 2.5 Pro、Gemini 2.5 Flash发布正式版并进入稳定运行阶段,并推出Gemini 2.5 Flash-Lite预览版。

谷歌性价比之王 Gemini 2.5 Flash-Lite发布:最快轻量版AI模型!-AI.x社区


Gemini 2.5 Flash Lite在在编程、数学、科学、推理和多模态基准测试中,全面超越了 2.0 Flash-Lite,广泛任务延迟低于2.0 Flash-Lite和2.0 Flash。谷歌称这一模型为其最经济实惠、速度最快的2.5系列模型。

谷歌性价比之王 Gemini 2.5 Flash-Lite发布:最快轻量版AI模型!-AI.x社区

并且,它在翻译和分类等高容量、延迟敏感的任务中表现尤为出色。在翻译工作中,不仅能够快速给出翻译结果,而且保证了高准确性和流畅度。

与 2.0 Flash-Lite 和 2.0 Flash 相比,它在广泛任务样本中的延迟更低,缩短了首个 token 的获取时间,实现了更高的每秒 token 解码速度,这使得它在处理任务时反应迅速,几乎能做到即时响应。

同时,Gemini 2.5 Flash-Lite允许通过 API 参数动态控制思考预算,虽然 “思考” 功能默认处于关闭状态,但开发者可根据实际需求灵活开启,以应对不同复杂程度的任务。

DeepMind研究副总裁Oriol Vinyals展示了一个应用示例——Neural OS(神经操作系统)。这个看似普通的操作系统界面,实际上所有内容都是用户点击图标后由Gemini 2.5 Flash-Lite实时生成的。

“这本质上是一个非确定性操作系统”,Vinyals解释道,“当你退出文件夹再重新进入时,里面的内容可能已经完全改变。”这种实时生成能力展示了Flash-Lite在低延迟场景下的卓越性能。


Gemini 2.5 Flash-Lite拥有 100 万个 token 的上下文长度,能够处理长篇幅、复杂的内容,充分理解前后文的逻辑关系,从而给出更贴合需求的回答。

在数学方面,Gemini 2.5 Pro的表现略逊色于OpenAI o4-mini,图像理解方面分数略低于OpenAI-o3 high。

谷歌性价比之王 Gemini 2.5 Flash-Lite发布:最快轻量版AI模型!-AI.x社区

在价格方面,Gemini 2.5 Flash-Lite 展现出了超高的性价比。它比 Gemini 2.5 Flash 便宜 30%-60%,输入价格仅为 0.1 美元(折合人民币约 0.7 元)/ 百万 tokens,输出价格为 0.4 美元(折合人民币约 2.9 元)/ 百万 tokens 。

目前,Gemini 2.5 Flash-Lite 预览版已在谷歌 AI Studio 和 Vertex AI 中上线,开发者们可以第一时间体验它的强大功能。

同时,Gemini 2.5 Flash 和 Pro 稳定版也已全面可用,并且谷歌还为谷歌搜索功能引入了 2.5 Flash-Lite 和 Flash 的定制版本,让广大用户在日常搜索中也能感受到 AI 技术带来的高效与便捷。

Gemini2.5系列的发布,标志着谷歌在推理速度和经济性方面取得了新的突破。

大家怎么看?欢迎在评论区留言讨论~

©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
收藏
回复
举报
回复
相关推荐