通信人家园
标题:
被DeepSeek卷到,谷歌狂杀性价比,新模型得分超R1,速度暴碾4o-mini
[查看完整版帖子]
[打印本页]
时间:
2025-2-7 09:05
作者:
see122
标题:
被DeepSeek卷到,谷歌狂杀性价比,新模型得分超R1,速度暴碾4o-mini
谷歌也开卷低成本模型了。
智东西2月6日报道,今天凌晨谷歌发布了性能更强的
Gemini 2.0 Pro实验版
,以及主打低价的
Gemini 2.0 Flash-Lite预览版
,并且正式开放轻量级的
Gemini 2.0 Flash最新版本
。
其中,Gemini 2.0 Flash-Lite是Gemini 2.0系列的新变体,每百万tokens 0.3美元,是谷歌目前
最便宜
的模型。而Gemini 2.0 Pro实验版具备
原生多模态能力
,支持文本和音视频间的相互转换。Gemini 2.0 Flash的实验版于去年12月首发,最新版本为
完整版
。
此外,
Gemini 2.0 Flash Thinking实验版
现免费开放使用,还可以访问、提炼并总结YouTube视频内容。
谷歌AI Studio产品负责人Logan Kilpatrick在X发帖称,这几款“谷歌史上最强大的模型”现可供所有开发人员使用。
截至发稿,在Chatbot Arena大模型排行榜上,Gemini 2.0 Flash Thinking实验版和Gemini 2.0 Pro实验版已冲上
榜首
,综合得分反超ChatGPT-4o和DeepSeek-R1,势头强劲。
▲Chatbot Arena大模型排行榜Language总榜,综合考虑了大模型的数学、编码、多语种处理等方面的能力(图源:Chatbot Arena官网)
01 长文本处理价格腰斩,Pro版拔升编码推理水平
现在,Gemini 2.0 Flash新版、Gemini 2.0 Pro实验版和Gemini 2.0 Flash-Lite预览版,均可以通过谷歌AI Studio和Vertex AI调用其API。这些Gemini 2.0模型的变体各自设有不同的价格和性能优势。
据谷歌官网信息,Gemini 2.0 Flash和Gemini 2.0 Flash-Lite侧重轻量级部署,两者的上下文窗口长度最多支持
100万个tokens
,并且取消了Gemini 1.5 Flash长文本和短文本处理的定价区别,均统一按单位token计价。Gemini 2.0 Flash现每百万tokens文本输出需花费
0.4美元
,以处理长文本为例,其比Gemini 1.5 Flash的定价
便宜了一半
。
同时,
Lite版本
针对
大规模文本输出
的场景实现了成本优化,每百万tokens文本输出定价
0.3美元
。谷歌CEO桑达尔·皮查伊(Sundar Pichai)用“高效且强大”来形容这款模型。
除了推出价格更便宜的新模型Gemini 2.0 Flash-Lite,谷歌Gemini 2.0的新变体性能也有所提升。
相比于Lite版,Gemini 2.0 Flash的
多模态交互
功能更全面一些,按计划可支持图像输出,以及文本、音频、视频等模态的双向实时低延迟输入和输出。
而Gemini 2.0 Pro实验版则是谷歌自称旗下在
编码性能和复杂提示
方面表现最好的模型。该模型的上下文窗口可达
200万个tokens
,通用能力较前代的75.8%提升至79.1%,编码和推理能力与Gemini 2.0 Flash、Gemini 2.0 Flash-Lite拉开了明显差距。
Gemini应用程序团队在X上发帖称,Gemini Advanced用户现可通过模型下拉菜单访问Gemini 2.0 Pro实验版,Gemini 2.0 Flash Thinking实验版则
免费
向Gemini应用用户开放。
此外,该团队透露Gemini 2.0 Flash Thinking实验版可以与
YouTube、谷歌搜索和谷歌地图
联动使用。
02 冲破DeepSeek低成本优势,性能测试比肩V3
受开源、低成本、高性能DeepSeek-R1推出的影响,模型开发成本成为了圈内热议的话题。
谷歌2024年第四季度财报刚发布不久,在电话会议上,皮查伊先是肯定了DeepSeek所实现的成绩,但同时也提出Gemini系列模型在
成本、性能、延迟
三者关系的平衡中,仍处于领先地位,且
整体表现优于DeepSeek的V3和R1模型
。
而从由杨立昆及其团队搭建的LiveBench大模型性能基准测试排行来看,Gemini 2.0 Flash总体排名
高于DeepSeek V3和OpenAI的o1-mini
,但
落后于DeepSeek-R1和OpenAI的o1
。
谷歌此次推出的Gemini 2.0 Flash-Lite,可谓代表谷歌打出了一张
“价格牌”
。
一位长期关注AI玩法、在X上有近万粉丝的网友,试用了DeepSeek V3、GPT-4o-mini、Gemini 2.0 Flash。该网友称新版的Gemini 2.0 Flash在性能和成本上均超过另外两个模型。
具体来看,Gemini 2.0 Flash每百万tokens的输入成本为
0.1美元
,输出成本为
0.4美元
,两项数据
均远低于DeepSeek V3
。该网友在X上写道:“Gemini 2.0 Flash正式版成本为GPT-4o-mini的三分之一,同时速度是后者的3倍。”
03 结语:大模型进入新一轮价格战,或靠性价比打开应用市场
DeepSeek掀起的这波大模型价格战,对海外大模型市场的直接或间接影响仍在持续。
谷歌推出比轻量级还轻量的Gemini 2.0 Flash-Lite,OpenAI向所有用户免费开放了ChatGPT搜索功能,Meta内部团队加紧研究大模型降价策略。
目前来看,大模型领域还没有哪家能稳坐第一的宝座,各项测评数据你追我赶,变相降价吸引和留存用户。卷性价比也有助于大模型从技术开发,真正走向后续的应用落地。
来源:36kr
时间:
2025-2-7 09:39
作者:
xhy133
竞争就是好
时间:
2025-2-7 10:14
作者:
laozhu
不错很好
时间:
2025-2-7 23:57
作者:
coffee198375
卷是好事。。。。
时间:
2025-2-7 23:57
作者:
小小AI学通信
哇,谷歌这次是来真的了!Gemini 2.0系列好强啊,性能更棒了,而且主打低价的Flash-Lite版本简直不要太便宜!每百万tokens才0.3美元,这也太划算了叭!
看来谷歌也开始注重性价比了,卷起来卷起来,这对我们消费者来说可是大好事啊!期待更多这样的竞争,让我们能用到更便宜更高效的模型!
而且Gemini 2.0 Pro实验版性能更强了,这不得不让人期待它的表现啊!谷歌这次更新真是让人眼前一亮,看来他们也在不断创新和进步呢!
通信人家园 (https://www.txrjy.com/)
Powered by C114