“你降价,我免费”,大模型厂商“杀疯了”
来源:国际金融报作者:马云飞2024-05-22 21:11

大模型价格战硝烟四起,继字节跳动、阿里云、百度之后,科大讯飞、腾讯云也下场了。

5月22日,科大讯飞宣布,讯飞星火API能力正式免费开放。其中,讯飞星火Lite API永久免费开放,讯飞星火Pro/Max API低至0.21元/万tokens。同日,腾讯云也宣布,全面下调大模型价格。

5月21日,阿里云投下“重磅炸弹”,宣布旗下9款通义大模型降价,百度也紧随其后,宣布文心大模型两大主力模型ERNIE Speed和ERNIE Lite全面免费。而在一周前,字节跳动旗下的云服务平台火山引擎也正式推出了自研的豆包大模型,并声称其售价将远低于行业平均水平。

不难看出,随着众多云服务厂商的纷纷加入,国产大模型市场的价格战正在愈演愈烈,新一轮的竞争高潮已然来临。

大模型进入“免费时代”

5月以来,国内已经有多个大模型下调了价格。

从时间脉络上来看,这场价格战的“源头”是私募基金幻方量化旗下孵化的一家初创大模型公司DeepSeek(深度求索)。5月6日,DeepSeek发布第二代MoE模型DeepSeek-V2,并高调宣称其性能可与GPT-4媲美,同时以惊人的低价策略——输入价格定为1元/百万tokens、输出2元/百万tokens(32K上下文),价格仅为GPT-4-Turbo的近百分之一,引发了市场震动。

面对DeepSeek如此犀利的价格攻势,竞争对手们自然感受到了巨大的压力。短短5天后,国内大模型研发的领军者之一智谱AI迅速作出反应,推出全新价格体系,新用户获得的免费额度大幅提升,同时个人版GLM-3Turbo模型产品的调用价格也锐减至1元/百万tokens。

巨头的接连下场给这场价格战按下了加速键。5月15日,字节跳动旗下云服务平台火山引擎发布的豆包大模型将“低价”策略推向了极致。据字节跳动当时的官方披露,与主流大模型GPT-4、百度文心一言、阿里通义千问相比,其豆包通用模型pro-32k版的推理输入价格仅为0.0008元/千tokens,价格优势高达99.3%。

“一般说算力资源不够用说的是训练,但今天说的大模型ToB(面向企业)服务主要是推理。做推理只要技术基础做得好就可以用各种异构算力满足性能、减少延迟,还能解决算力瓶颈。”5月中旬,火山引擎总裁谭待在接受媒体采访时解释降价初衷时称,“解决算力也就解决了成本问题,就能把模型推理成本降到很低。以前企业做创新担心ROI(投资回报率)打不正,一来创新项目90%会失败,二来创新试错贵(按消耗100亿tokens算,就要80万);现在试错成本降到8000元,失败成本可控,只要剩下10%项目能成,就可以把投入都赚回来,这让很多企业轻装上阵,无负担投身到AI大潮。”

值得一提的是,字节跳动此举被市场视为大模型价格战正式打响,行业竞争瞬间变得紧张而胶着。在字节跳动的强势冲击下,被“点名”的阿里云、百度智能云也不得不作出回应。

5月21日,阿里云宣布,通义千问旗下9款商业化及开源模型纷纷降价。其中,备受瞩目的通义千问GPT-4级核心模型Qwen-Long的API输入价格锐减至0.0005元/千Tokens,降幅高达97%;输出价格也大幅降至0.002元/千tokens,降幅为90%。

阿里云这一举措犹如巨石投湖,立刻引发了市场的巨大反响。不到四小时,百度智能云迅速跟进,宣布文心大模型的两款主力模型ENIRE Speed和ENIRE Lite全面免费,这一策略立即生效。这两款大模型均发布于今年3月,属于轻量级大语言模型。

5月22日,科大讯飞也“放大招”,直接对标文心一言和通义千问,声称此次调整讯飞星火大模型的定价更具竞争力,不仅在业界推出首个“永久免费”的版本,更在顶配的版本上实现了更低的价格。以输出价格为例,讯飞星火Max API价格低至0.21元/万tokens,相比百度文心一言ERNIE-4.0和阿里通义千问Qwen-Max 1.2元/万tokens的价格,讯飞星火定价为百度阿里的五分之一。

5月22日,腾讯云也加入大模型降价阵营。腾讯云宣布,其主力模型之一混元-lite模型的价格从0.008元/千tokens调整为全面免费。

对于此次大模型行业的“降价潮”,科尔尼咨询全球合伙人宋旭军表示,主要受供求关系和成本两个方面因素的影响。首先是供求关系变化,竞争的加剧推动各厂商主动降价以争取用户。目前国内外模型在表现上差距逐渐缩小,没有哪家公司能收取特别高的溢价。为尽可能抢占市场以培养用户使用习惯、积累数据、迭代自己的模型,各厂商的合理策略就是主动降价进行闪电式扩张。第二是成本的下降,随着算力成本的下降和模型算法的优化,模型厂商自身的成本也在下降。典型的例子是英伟达GPU和谷歌TPU、华为昇腾性能都在快速提升。另外,DeepSeek通过MoE模型架构(专家混合)实现了比传统transformer架构更优的成本,也反应了通过算法优化实现降本的巨大空间。

巨头争抢商业化落地

随着科大讯飞、百度、阿里、腾讯云等国产大模型厂商相继大幅降价,将大模型推向一个新的竞争阶段。实际上,不只是国产大模型在降价,OpenAI等国外大模型也在不断下调大模型价格。

作为一举一动都牵动行业瞩目的头部公司,OpenAI近期发布了全新旗舰AI模型GPT-4o。官方介绍称,GPT-4o的速度比GPT-4 Turbo快2倍,速率限制提高5倍,最高可达每分钟1000万token,而价格则便宜了一半。

从OpenAI过去一年的策略来看,降价显然是其不断升级与扩展市场的核心策略。根据公开信息,自从2023年年初起,OpenAI已经连续进行了四次降价动作。2023年3月,OpenAI推出GPT-3.5 Turbo,将每1000个tokens的成本锐减至0.002美元,这一价格相较于之前的GPT-3.5模型降低了惊人的90%。

无独有偶,去年11月,OpenAI发布了GPT-4 Turbo。据OpenAI介绍,相比于GPT-4,GPT-4 Turbo具有更低的价格和更高的限制,“GPT-4 Turbo输入tokens价格仅为GPT-4的1/3,输出tokens价格是GPT-4的1/2;同时还将所有GPT-4付费用户的每分钟tokens限制增加了一倍”。

5月21日,阿里云智能集团公共云事业部总裁刘伟光曾公开表示,“AI推理的成本只有以每年10倍甚至百倍地下降,才能推动各行各业AI应用的爆发,预计未来大模型API的调用量会有成千上万倍增长。”

国内外巨头开启价格战的背后,2024年作为大模型商业化落地的元年,应用落地成为行业竞争焦点。经过过去一年发展,目前国内大模型先头部队已接近GPT-4的能力,打磨“内功”同时将目光瞄向用户,通过降价来换取更大的市场空间。

对开发者和企业而言,大模型大幅降价甚至免费,将很大程度解决大模型落地的成本问题,能够让开发者以更低的成本实现大模型在各个场景的落地,也加速了大模型技术的普及和商业化进程。

IDC预测,2026年中国AI大模型市场规模将达到211亿美元,人工智能将进入大规模落地应用关键期。麦肯锡的报告也指出,在其研究的63种应用中使用生成式AI,将为全球经济带来每年2.6万亿—4.4万亿美元的增长。此轮国内大模型轮番降价,既是“百模大战”竞争的加剧,也是大模型商业化拐点将至。

在宋旭军看来,目前国内外大模型进入了百花齐放、快速升级、逐渐落地的阶段。头部企业和新进入者技术代差特别是应用表现逐渐缩小,形成了你追我赶的局面。随着多模态深化、推理速度加快、模型成本的快速下降,后续会在应用侧逐渐加速,无论是搜索、ToC端的AI PC/AI手机和其他消费电子产品,还是ToB端的企业和行业应用都会快速推进。相信在未来一两年内应用将出现大爆发的情形。

记者:马云飞

编辑:周清原

责任编辑:毕丹丹

责任编辑: 高蕊琦
声明:证券时报力求信息真实、准确,文章提及内容仅供参考,不构成实质性投资建议,据此操作风险自担
下载“证券时报”官方APP,或关注官方微信公众号,即可随时了解股市动态,洞察政策信息,把握财富机会。
网友评论
登录后可以发言
发送
网友评论仅供其表达个人看法,并不表明证券时报立场
暂无评论
为你推荐
时报热榜
换一换
    热点视频
    换一换