一360一 作品

第587章 大模型價格戰卷至“釐時代”!阿里雲通義千問降價97%

 近日,阿里雲宣佈推出通義千問gpt-4級主力模型Qwen-Long,其Api輸入價格從0.02元/千tokens降至0.0005元/千tokens,直降97%。這意味著,1塊錢可以買200萬tokens,相當於5本《新華字典》的文字量。此消息一出,立即引發了業界的廣泛關注和熱議。 

 值得一提的是,本月智譜Ai、字節跳動的大模型也都紛紛宣佈降價。其中,字節的豆包主力模型的定價為0.0008元/千tokens,即0.8釐/千tokens,被認為帶動大模型定價進入了“釐時代”。 

 此輪大模型降價潮,是各家廠商希望進一步搶佔市場,從而加速Ai應用的商業化落地。 

 9款商業化及開源系列模型降價 

 Qwen-Long是通義千問的長文本增強版模型,性能對標gpt-4,上下文長度最高1千萬。除了輸入價格降至0.0005元/千tokens,Qwen-Long輸出價格也降90%至0.002元/千tokens。相比之下,國內外廠商gpt-4、ge及ernie-4.0每千tokens輸入價格分別為0.22元、0.025元、0.022元及0.12元。 

 通義千問本次降價共覆蓋9款商業化及開源系列模型。不久前發佈的通義千問旗艦款大模型Qwen-max,Api輸入價格降至0.04元/千tokens,降幅為67%。 

 智譜Ai、字節跳動旗下火山引擎也紛紛宣佈了降價 

 5月11日,智譜Ai大模型的新註冊用戶獲得額度從500萬tokens提升至2500萬tokens,個人版 gLm-3turbo模型產品的調用價格從5元/百萬tokens降低至1元/百萬tokens。gLm-3 turbo Batch 批處理Api也便宜了50%,價格為1元/200萬tokens。 

 15日,火山引擎宣佈豆包pro 32k模型定價是0.8釐/千tokens。此外,豆包pro 128k模型定價是5釐錢/千tokens。 

 大模型已經開始從“卷大模型技術”向“卷大模型應用”轉變 

 對於此輪降價潮,不少業內分析指出,大模型已經開始從“卷大模型技術”向“卷大模型應用”轉變,但推理成本過高依然是制約大模型規模化應用的關鍵因素。 

 在武漢Ai智領者峰會現場,阿里雲智能集團資深副總裁、公共雲事業部總裁劉偉光稱:“阿里雲這次大幅降低大模型推理價格,就是希望加速Ai應用的爆發。我們預計2024年大模型Api的日調用次數有望突破100億。” 

 劉偉光判斷,不管是開源模型還是商業化模型,公共雲+Api將成為企業使用大模型的主流方式。雲上調用成本遠對於私有云部署。在追求更大尺寸的模型時,企業要面對gpu採購、軟件部署、網絡費用、電費、人力成本等等。隨著大模型的規模變大,對於私有化部署的成本和複雜性會越來越高。去年還有不少企業考慮購買上百臺gpu服務器,來搭建計算網絡集群。但今年很多公司已經放棄了自建百臺集群的大模型研發。