【财经分析】AI大模型卷起“降价潮” 商业化落地或加速
15日,字节跳动豆包大模型在火山引擎原动力大会上正式发布。分析人士认为,今年以来大模型降价已成趋势,将进一步加速应用端落地。
新华财经广州5月16日电(记者吕光一)AI大模型“价格战”又有强势入局者。15日,字节跳动豆包大模型在火山引擎原动力大会上正式发布。据介绍,豆包主力模型在企业市场的定价只有0.0008元/千Tokens,0.8厘就能处理1500多个汉字,推动行业市场价格进一步下探。分析人士认为,今年以来大模型降价已成趋势,将进一步加速应用端落地。
大模型扎堆降价
记者注意到,近期国内外多个大模型相继宣布降价,AI大模型正掀起“价格战”。
2月底,法国人工智能企业Mistral AI发布了最新大模型Mistral Large,并推出对标ChatGPT的首个聊天机器人产品Le Chat。在定价上,Mistral Large的输入、输出价格比GPT-4 Turbo便宜约20%。
5月14日,OpenAI召开春季发布会,正式推出新一代旗舰AI模型——GPT-4o,不仅在功能上大幅超越GPT-4 Turbo,在价格上更是带来惊喜——API价格下降50%。
国产大模型在降价上也“不甘落后”。5月6日,国内知名私募巨头幻方量化旗下的AI公司DeepSeek发布全新第二代MoE大模型DeepSeek-V2。值得注意的是,DeepSeek-V2 API定价为每百万Tokens输入1元、输出2元(32K上下文),价格为GPT-4 Turbo的近百分之一,显示出较高的性价比。
5月9日,阿里云正式发布通义千问2.5,根据OpenCompass的测评结果,通义千问2.5得分追平GPT-4 Turbo,与此同时个人用户可从App、官网和小程序免费使用。
5月11日,智谱大模型官宣新的价格体系,入门级产品GLM-3 Turbo模型调用价格从5元/百万Tokens降至1元/百万Tokens,降幅高达80%。
再到5月15日,字节跳动豆包大模型正式开启对外服务,在定价上也推动大模型从“以分计价”,进入“以厘计价”阶段,换句话说,一块钱就能买到豆包主力模型的125万Tokens,相当于三本《三国演义》。
华福证券研报指出,大模型成本优化与算力需求并不是直接的此长彼消,而是互相搭台、相互成就。定价的持续走低有望带来更快的商业化落地,进而会衍生出更多的微调及推理等需求,将逐步盘活国内AI应用及国产算力发展。
提质降本加速大模型商业化落地
从“用不起”到“白菜价”,大模型“降价潮”背后是训练成本的不断降低。OpenAI CEO萨姆·奥尔特曼(Sam Altman)去年在GPT-4发布后表示,该公司最大模型的训练成本“远远超过了”5000万美元。据斯坦福大学发布的《2024年人工智能指数报告》估算,OpenAI的GPT-4训练成本为7800万美元。而Mistral AI创始人阿瑟·门斯(Arthur Mensch)接受媒体采访时表示,Mistral Large的训练成本不到2000万欧元,相当于大约2200万美元。
以国产大模型DeepSeek-V2为例,定价之所以仅为GPT-4 Turbo的百分之一,银河证券研报认为,DeepSeek-V2提升数据集质量及优化架构,大幅提升训练效率,降低训练成本,训练所需计算量约为GPT-4的1/20,但性能上基本相差无几。成本大幅降低,在价格方面提升竞争力,大模型将逐渐进入价格战时期,AI应用将快速渗透。
目前,市场上主要的大模型参与者都在不断推动训练成本的降低,以加速大模型的商业化落地。百度升级了AI异构计算平台“百舸”,将训练和推理场景的吞吐量最高提升30%和60%。腾讯升级了混元大模型背后的自研机器学习框架Angel,针对预训练、模型精调和强化学习等全流程进行了加速和优化。借此,大模型训练效率可提升至主流开源框架的2.6倍,用该框架训练千亿级大模型可节省50%算力成本。
平安证券计算机行业分析师闫磊认为,当前全球范围内的大模型逐渐呈现由单方面的性能角逐,转向性能与实用性并重的发展趋势。大规模厂商通过提升其产品性价比,助推下游应用端的推广部署,有望加速大模型产业链商业闭环的形成。
编辑:尹杨
声明:新华财经为新华社承建的国家金融信息平台。任何情况下,本平台所发布的信息均不构成投资建议。如有问题,请联系客服:400-6123115















