大模型“价格战”爆发,谁能抢占商业化制高点?(组图)
四个核心大厂的加入,正在将本轮国产大模型价格战推上高潮。
5月21日,阿里云宣布将旗下通义千问的9款商业化及开源模型进行大幅降价。
其中,对标GPT-4的模型Qwen-Long的API(应用程序编程接口)输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%;输出价格从0.02元/千tokens降至0.002元/千tokens,直降90%。
阿里大模型全面降价后,百度紧随其后,直接宣布模型免费使用。
21日下午,百度智能云发布公告称,百度文心大模型的两款主力模型ENIRESpeed、ENIRELite将全面免费,并即刻生效。
而在四天前的17日,腾讯云也对混元大模型进行了大幅降价:
窗口尺寸为32K的hunyuan-standard模型和hunyuan-pro模型,推理输入价格分别为0.0069元/千tokens和0.069元/千tokens,较之前的刊例价降了30%以上。
虽然以上两个模型价格大大高于友商,但新用户可免费享受1年的模型资源包,文本生成模型共享10万token。
业内猜测,BAT三巨头此举是为了应对字节此前发布的豆包大模型。
15日,字节跳动旗下火山引擎推出豆包大模型,并将豆包Pro 32k模型推理输入价格定为0.0008元/千tokens,较行业价格低99.3%,大模型从“以分计价”进入“以厘计价”时代。
根据火山引擎公布的价格计算,一元钱就能买到豆包主力模型的125万Tokens,大约是200万个汉字,相当于三本《三国演义》。
字节一记重磅炸弹,把大模型市场炸翻了天,阿里、百度、腾讯被动入局。
小厂提前行动
小厂似乎更早看到了价格战的苗头,纷纷在大厂之前就祭出了“白菜价”。
被称为大模型界“拼多多”的DeepSeek最早行动,5月6日将大模型DeepSeek-V2价格降至每百万token输入1元、输出2元(32K上下文)。开发者登录 DeepSeek 开放平台送 500万 tokens。
五天后,智谱AI将旗下入门级大模型GLM-3-Turbo(上下文长度128k)的价格,从0.005元 / 千tokens降低到0.001元 / 千tokens。开放平台新注册用户获赠从500万tokens提升至2500万tokens(包含2000万GLM3-Turbo和500万GLM4)。
“卷”价格的考量是什么?
大模型厂商集体“卷”价格,折射出了AI应用加速商业化和缓解研发成本压力的迫切需求。
首先,技术的快速迭代,让通用大模型的能力不断提升,但要真正创造商业价值,还需要深入行业场景,解决实际问题。
在武汉AI智领者峰会现场,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光称:“阿里云这次大幅降低大模型推理价格,就是希望加速AI应用的爆发。我们预计2024年大模型API的日调用次数有望突破100亿。”
其次,大模型的研发成本高企。华为大模型负责人田奇曾提到,大模型开发和训练一次需要约1200万美元(约合8700万元人民币),百川智能创始人CEO王小川则称,每1亿参数对应训练成本在1.5到3万人民币之间。
动辄上亿的训练费用,再加上水涨船高的算力成本,即便是大厂也感到吃力。
因此,降价成为厂商们破局的制胜法宝。通过大幅下调API调用费用,吸引更多中小企业和开发者尝鲜,加速大模型在各行各业的渗透,打开更广阔的应用空间。这对于盘活前期投入,加速商业闭环的形成至关重要。
此外,本轮价格战可能是巨头抢占赛道制高点的最佳时机。价格战考验的是资金和技术实力,折让中小玩家难以为继。阿里们或许能借此机会,快速积累用户,聚拢生态,巩固行业地位。