近日,阿里云宣布推出通义千问gpt-4级主力模型qwen-long,其api输入价格从002元/千tokens降至00005元/千tokens,直降97。这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。此消息一出,立即引发了业界的广泛关注和热议。
值得一提的是,本月智谱ai、字节跳动的大模型也都纷纷宣布降价。其中,字节的豆包主力模型的定价为00008元/千tokens,即08厘/千tokens,被认为带动大模型定价进入了“厘时代”。
此轮大模型降价潮,是各家厂商希望进一步抢占市场,从而加速ai应用的商业化落地。
9款商业化及开源系列模型降价
qwen-long是通义千问的长文本增强版模型,性能对标gpt-4,上下文长度最高1千万。除了输入价格降至00005元/千tokens,qwen-long输出价格也降90至0002元/千tokens。相比之下,国内外厂商gpt-4、i15 pro、cude 3 n及ernie-40每千tokens输入价格分别为022元、0025元、0022元及012元。
通义千问本次降价共覆盖9款商业化及开源系列模型。不久前发布的通义千问旗舰款大模型qwen-ax,api输入价格降至004元/千tokens,降幅为67%。
智谱ai、字节跳动旗下火山引擎也纷纷宣布了降价
5月11日,智谱ai大模型的新注册用户获得额度从500万tokens提升至2500万tokens,个人版 gl-3turbo模型产品的调用价格从5元/百万tokens降低至1元/百万tokens。gl-3 turbo batch 批处理api也便宜了50,价格为1元/200万tokens。
15日,火山引擎宣布豆包pro 32k模型定价是08厘/千tokens。此外,豆包pro 128k模型定价是5厘钱/千tokens。
大模型已经开始从“卷大模型技术”向“卷大模型应用”转变
对于此轮降价潮