近日,有媒體報道稱,百度正加緊訓(xùn)練文心大模型4.0,這將是文心大模型3.5版本后又一個重磅版本。據(jù)報道,文心大模型4.0進展比預(yù)期快很多,將是基礎(chǔ)模型的大升級,理解、生成、邏輯、記憶核心能力都將提升,特別是在邏輯推理、代碼和數(shù)學(xué)等方面提升最明顯。
10月10日,記者從百度內(nèi)部人士基本確認了該消息,據(jù)悉,即將推出的文心大模型4.0的參數(shù)量、訓(xùn)練數(shù)據(jù)量以及推理成本等都比3.5高出一個數(shù)量級。
今年3月16日,百度官宣新一代大語言模型“文心一言”啟動邀測,8月31日正式面向公眾開放服務(wù)。如今,文心大模型即將再度升級發(fā)布4.0版,如此迅速的大模型升級速度,在國內(nèi)尚屬唯一。只不過,快速升級的背后,文心大模型4.0快速攀升的參數(shù)量、數(shù)據(jù)量所帶來的訓(xùn)練和推理成本提升,也正在成為大模型商業(yè)化過程中需要考慮的重點。
據(jù)此前消息報道,相比文心大模型3.5,文心4.0不僅訓(xùn)練成本在增加,推理成本也增加了很多,大概是此前的8-10倍。一直以來,百度并未對外披露大模型訓(xùn)練、推理的各項成本,不過據(jù)國盛證券此前估算,GPT-3訓(xùn)練一次的成本約為140萬美元,對于一些更大的LLM模型(如擁有2800億參數(shù)的Gopher和擁有5400億參數(shù)的PaLM),訓(xùn)練成本介于200萬美元至1200萬美元之間。作為國內(nèi)大語言模型代表,文心一言想要在性能上追趕甚至超越ChatGPT等國外同行,所需耗費的資金成本,恐怕也將與之相當(dāng)。
過高的訓(xùn)練和推理成本壓力下,在打造領(lǐng)先的底層基礎(chǔ)大模型的路上,注定只能是一場巨頭間的游戲。不過對于百度而言,由于具備萬卡集群、飛槳、文心大模型以及豐富的百度應(yīng)用生態(tài)優(yōu)勢,獨具芯片、框架、模型及應(yīng)用四層架構(gòu)優(yōu)勢,更具技術(shù)競爭力。
在進一步降低大模型算力成本和時間成本上,百度萬卡集群的整體優(yōu)勢已得到充分體現(xiàn)——在萬卡集群訓(xùn)練大模型時,常規(guī)方法下工程師們有30%-40%時間都花在容錯和故障恢復(fù)上,而在百度智能云自研的集群組網(wǎng)故障管理機制下,模型有效訓(xùn)練時間達到95%以上,人力及算力資源均得到了利用。
真金白銀投入的背后,目前國外大模型廠商已開始嘗試收費模式,無論是在面向企業(yè)客戶的B端垂類大模型開發(fā),還是面向消費群體的To C付費產(chǎn)品,均有不少案例。例如,在面向C端消費者付費領(lǐng)域,目前GPT-4已推出“每月支付20美元訂閱費”的收費模式。
可以預(yù)見,不遠的將來,以百度為代表的大模型企業(yè)們,或?qū)㈥懤m(xù)推出收費模式。在To C大模型AI應(yīng)用層面,類似愛奇藝或百度網(wǎng)盤VIP會員的收費模式,也將不斷浮現(xiàn),逐漸培養(yǎng)用戶付費習(xí)慣。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設(shè)計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。