百川智能發(fā)布全鏈路領(lǐng)域增強(qiáng)金融大模型 Baichuan4-Finance年末家電消費(fèi)觀察:品質(zhì)生活類產(chǎn)品熱賣,將持續(xù)迎來剛需式普及?GPT-5研發(fā)受阻:OpenAI 新一代模型難見突破性進(jìn)展新一代語言模型ModernBERT發(fā)布,RAG等任務(wù)處理速度快四倍、成本低新研究顯示:Anthropic 的 Claude AI 在合作能力上領(lǐng)先于 OpenAI 和谷歌模型谷歌向投資者保證人工智能本月將迎來“驚人”表現(xiàn)多模態(tài)大模型引爆應(yīng)用場(chǎng)景 階躍星辰完成數(shù)億美元融資星動(dòng)紀(jì)元發(fā)布端到端原生機(jī)器人大模型ERA-42 實(shí)現(xiàn)機(jī)器人復(fù)雜場(chǎng)景操作免費(fèi)模式強(qiáng)攻下,快手、抖音用“短劇VIP”反擊?低碳存儲(chǔ)助力算力產(chǎn)業(yè) 富士膠片首次亮相IDC大會(huì)行業(yè)唯一!海爾熱聲熱泵技術(shù)獲全國(guó)顛覆性技術(shù)創(chuàng)新大賽最高獎(jiǎng)OPPO A5 Pro首創(chuàng)獵手天線架構(gòu):信號(hào)能穿十堵墻一加 Ace 5 Pro首發(fā)電競(jìng)Wi-Fi芯片G1 帶來「穿墻王」和「搶網(wǎng)王」般的網(wǎng)絡(luò)體驗(yàn)電視市場(chǎng)又出黑馬!TCL同檔Mini LED音畫王P12K,萬象分區(qū)打造超強(qiáng)控光!零下25℃如何取暖?海爾水暖通溫暖驛站亮相冰雪大世界馬太效應(yīng),強(qiáng)者恒強(qiáng)?——《中國(guó)企業(yè)科創(chuàng)力研究報(bào)告(2024)》美團(tuán)年度報(bào)告竟然用上了AI和短?這下是真出圈了消息稱上汽大眾正開發(fā)三款新車,技術(shù)分別來自小鵬、智己和榮威鴻蒙智行泊車代駕VPD正式開啟全量推送!升級(jí)自動(dòng)泊車/接駕等多項(xiàng)功能華為官方翻新手機(jī)最高降價(jià)4000元
  • 首頁 > 云計(jì)算頻道 > 大模型

    1毛錢1百萬token,寫2遍紅樓夢(mèng)!國(guó)產(chǎn)大模型下一步還想卷什么?

    2024年06月06日 09:42:29   來源:新智元公眾號(hào)

      大模型價(jià)格戰(zhàn),這匹國(guó)產(chǎn)黑馬又破紀(jì)錄了!最低的GLM-4Flash版本,百萬token價(jià)格已經(jīng)低至0.1元,可以說是擊穿地心。MaaS2.0大升級(jí),讓企業(yè)訓(xùn)練私有模型的成本無限降低。

      剛剛,智譜AI開放日上,新一代MaaS平臺(tái)2.0正式發(fā)布。

      這次,GLM技術(shù)團(tuán)隊(duì)帶來的是從模型,到成本、企業(yè)定制模型,以及業(yè)務(wù)場(chǎng)景的全面升級(jí)。

      令人驚喜的是,第四代GLM系列開源模型GLM-49B,官宣開源免費(fèi)用,還具備了多模態(tài)能力。同時(shí),新發(fā)布的GLM-4-AIR性能媲美此前的最大基座模型,且價(jià)格降至1元/M token。

      在5月這波價(jià)格戰(zhàn)之后,國(guó)內(nèi)主流大模型API調(diào)用已經(jīng)直降超90%。

      需要明白的是,即便token價(jià)格無限逼近零,企業(yè)需要搞清楚如何用才能發(fā)揮巨大業(yè)務(wù)價(jià)值。

      否則,再便宜也是無用功。

      這次的發(fā)布,直接將智譜AI帶入了商業(yè)化的最后一站。新一代MaaS平臺(tái)出場(chǎng),便是一個(gè)很好的起點(diǎn)。

      大模型2024:既要落地,又要開源

      如果說2023年是世界發(fā)現(xiàn)生成式AI的一年,那么,2024年才是企業(yè)真正使用GenAI,并從中獲得商業(yè)價(jià)值的一年。

      麥肯錫最新的全球調(diào)查報(bào)告稱,65%的受訪者表示企業(yè)會(huì)經(jīng)常使用生成式AI。

      而這個(gè)數(shù)字,比十個(gè)月前的調(diào)查(33%),幾乎翻了一番。

      對(duì)于企業(yè)來說,從選用模型,到以低成本微調(diào)部署模型,并擁有靈活可用的全棧工具鏈,是讓GenAI走向落地必不可少的過程。

      那些無法「造血」沒有自研模型的公司,就需要通過API、MaaS等平臺(tái),以便讓LLM融入工作流。

      比如,法律AI初創(chuàng)公司Harvey,通過OpenAI API,為律師們微調(diào)定制了一個(gè)「案例法模型」。

      而且,經(jīng)過測(cè)試,相較于GPT-4,有97%的律師更喜歡使用Harvey的模型。

      而另一個(gè)典型的案例是,開源社區(qū)借助Llama3之力,已經(jīng)大大加速GenAI在醫(yī)療領(lǐng)域的應(yīng)用。

      在英偉達(dá)NIM推理微服務(wù)平臺(tái)支持下,醫(yī)療開發(fā)者利用Llama3已經(jīng)開發(fā)出各種聊天助手、健康A(chǔ)PP等。

      反觀國(guó)內(nèi),LLM落地究竟有多火,就從卷瘋的token價(jià)格戰(zhàn),可一瞥而知。

      API價(jià)格,已經(jīng)卷瘋

      而在國(guó)產(chǎn)大模型的戰(zhàn)場(chǎng)上,價(jià)格戰(zhàn)也在最近卷出新高。

      智譜AI開放平臺(tái)的新用戶,登錄就送的500萬token直接漲到2500萬token

      GLM-3-Turbo每千token從0.005元直降到0.001元

      GLM-3Turbo批處理API的價(jià)格也直接砍半,每千token砍到0.0005元

      隨后,火山引擎祭出更勁爆價(jià)格——豆包的企業(yè)定價(jià)直接擊穿地心,千token低至0.0008元,比整個(gè)行業(yè)都便宜了99.3%。

      智譜AI表示,基于技術(shù)突破、效率提升和成本控制三個(gè)因素綜合的結(jié)果。通過大模型價(jià)格調(diào)整,更好滿足開發(fā)者、客戶需求。

      當(dāng)然,價(jià)格戰(zhàn)僅是智譜AI貫徹MaaS戰(zhàn)略中的一個(gè)「支點(diǎn)」。

      大廠MaaS,如火如荼

      大模型沸騰的熱度,也讓國(guó)內(nèi)廠商的MaaS發(fā)展如火如荼。

      所謂MaaS,即用戶可以直接使用不同參數(shù)、不同規(guī)格的細(xì)分模型,來應(yīng)對(duì)千變?nèi)f化的應(yīng)用場(chǎng)景。

      商業(yè)鏈路打通后,蜂擁而至的開發(fā)者,就會(huì)讓應(yīng)用商店持續(xù)繁榮,形成「馬太效應(yīng)」。

      今天的OpenDay上,智譜AI宣布MaaS平臺(tái)不僅已經(jīng)擁有了30萬注冊(cè)用戶,而且模型的日均調(diào)用量也超過了400億token。

      在下面這條曲線中可以看出,在過去6個(gè)月中,智譜每日API的消耗量,增長(zhǎng)了50倍以上。這正說明:已經(jīng)有越來越多的企業(yè),已經(jīng)真正把模型用到了日常工作中。

      GLM-4的API調(diào)用量則,則達(dá)到了90倍的增長(zhǎng)。這也正說明,企業(yè)已經(jīng)開始利用模型能力進(jìn)入深水區(qū),解決一些真正復(fù)雜的問題。

      而今年,大家開始對(duì)于大模型有了一些新的期待——除了更強(qiáng)大、更快的模型,用戶也開始對(duì)成本變得敏感。

      模型升級(jí):0.1元寫2本《紅樓夢(mèng)》

      如今,平臺(tái)上已經(jīng)全線接入新模型,由ChatGLM3-6B升級(jí)為GLM-4-9B,堪稱“最能打的小模型”,已經(jīng)全面超過了 Llama3-8B-Instruct。

      在開放平臺(tái)上,它變成GLM-4Flash版本,價(jià)格相對(duì)于GLM-3-Turbo再次降價(jià)10倍,僅僅0.1元,就可以擁有一百萬tokens,足夠?qū)憙杀舅拇竺?

      如果小模型不能滿足需求,新推出的GLM-4-Air性能更加強(qiáng)大。它的性能跟和此前的GLM-4-0116相仿,但價(jià)格僅為前者的百分之一!一百萬tokens,僅需一元。

      而許多企業(yè)應(yīng)用到深水區(qū)時(shí),對(duì)速度也有極高的要求,在此基礎(chǔ)之上,智譜加入了極速版。

      效果不變,但推理速度直升162%。71token每秒,相當(dāng)于每秒可以直出100多個(gè)漢字!

      并且,GLM-4-0116也同時(shí)升級(jí)了。

      就在今天,智譜推出了GLM-4-0520,它的綜合能力,已經(jīng)提升了11.9%。

      真正做過模型的應(yīng)用的人,都明白這意味著什么:雖然在數(shù)字上看來只是一點(diǎn)點(diǎn)的提升,但這已經(jīng)進(jìn)一步提升了模型的天花板,極大擴(kuò)展應(yīng)用的范圍,降低應(yīng)用的成本。

      如今,智譜AI已經(jīng)擁有全模型矩陣。

      無論是GLM-4V,還是CogView-3,降價(jià)都達(dá)到了50%-60%——一張圖只需一毛錢。

      開放平臺(tái)升級(jí):3步訓(xùn)出一個(gè)私有模型

      每個(gè)企業(yè)都希望構(gòu)建自己的私有模型。雖然開源生態(tài)讓模型訓(xùn)練門檻大幅降低,但對(duì)于絕大多數(shù)企業(yè),這個(gè)過程依然太復(fù)雜。

      為此,智譜AI也全面升級(jí)了自己的平臺(tái),僅僅三步——準(zhǔn)備數(shù)據(jù)、創(chuàng)建微調(diào)任務(wù)、部署模型,就能讓企業(yè)訓(xùn)出一個(gè)私有模型了!

      這個(gè)過程中,不需要任何代碼功底。而且,GLM-4全系列模型都支持這樣的微調(diào)。

      針對(duì)企業(yè),智譜AI提供了兩種模式:LoRA微調(diào)和全參微調(diào)。

      LoRA微調(diào),可以說是性價(jià)比之王,用更低的成本達(dá)到較好的結(jié)果。

      全參微調(diào),相當(dāng)于是探索模型微調(diào)的極限。

      可以看到,訓(xùn)練成本可以降低到87%。在LoRA微調(diào)上,GLM-4每千token只需要四毛錢,GLM-4-Air則只需要三分錢。

      比起訓(xùn)練千億模型動(dòng)輒需要的多臺(tái)A100、A800,顯然門檻已經(jīng)大幅降低。

      而即使是全參微調(diào)的情況下,GLM-4每千token也只需要六毛錢,GLM-4-Air則只需要五分錢。

      下面這個(gè)例子,是一個(gè)發(fā)生在客戶身上的真實(shí)實(shí)驗(yàn)。

      客戶需要模型能夠提供某領(lǐng)域?qū)I(yè)化的咨詢服務(wù),于是,智譜AI嘗試為客戶做了微調(diào)。

      他們選擇了6000條語料,折合下來是一千萬token。

      訓(xùn)練后,模型的可用性從60%,直接上升到了89%!

      這不是一個(gè)簡(jiǎn)單的提升,而是一個(gè)本質(zhì)性的飛躍,讓模型從不可用,變成了完全可用,進(jìn)一步探索了模型使用的邊界。

      所以,這次微調(diào)的成本是多少?

      答案令人驚詫——如果使用LoRA的話,成本僅為300元!即使選擇全參,也只需要500元。

      這個(gè)具體的demo,可以讓我們深刻地體會(huì)到,如今訓(xùn)練出一個(gè)私有模型是多么容易。

      另外,在AllTools的API平臺(tái)上,智能體的能力能讓大模型從解決一個(gè)單一任務(wù),變成處理一個(gè)復(fù)雜任務(wù)。

      在企業(yè)端,這樣讓使用模型的能力大幅度放開。

      從此,每一家企業(yè)都能制作自己的智能體,以及智能體平臺(tái)。

      它可以讓模型更好拆解任務(wù),更好調(diào)用上下文function call的能力,還為企業(yè)提供了常用的一些智能體插件。

      包括代碼解釋器、知識(shí)庫檢索增強(qiáng)、函數(shù)調(diào)用能力等等。

      開放平臺(tái)地址:bigmodel.cn

      國(guó)內(nèi)開源,影響世界

      另一邊,國(guó)內(nèi)模型開源掀起的風(fēng)浪,已然波及到全世界。

      而堅(jiān)持開源,是智譜AI一直以來的傳統(tǒng)。

      他們不僅是國(guó)產(chǎn)LLM的領(lǐng)頭羊,也是大模型學(xué)術(shù)生態(tài)、開源生態(tài)中,不可忽視,首屈一指的中國(guó)力量。

      目前為止,智譜AI已經(jīng)有三代模型全部開源。

      6B系列開源模型,在Github上已累計(jì)獲得超過6萬star,相當(dāng)于Llama系列模型的star總數(shù),超過了Grok和其他所有模型;在Hugging Face上吸引了超過1300萬次下載,四周Hugging Face趨勢(shì)榜第一。

      GPT-4發(fā)布的同一天,團(tuán)隊(duì)首次開源了ChatGLM-6B模型,隨后6月開源了二代6B模型,并首次引入GQA、FlashAttention技術(shù),將模型上下文擴(kuò)充到32K,并加速了生成速度。

      緊接著10月,三代6B模型開源,支持128K上下文。

    圖片

      GLM-49B系列,免費(fèi)開源

      今天,智譜帶來了第四代開源模型最新成果——GLM-4-9B。

      顯然,這次開源模型最大的變化是,參數(shù)規(guī)模從6B升級(jí)到了9B,并首次擁有了多模態(tài)能力。

      而且,基于強(qiáng)大基座模型,GLM-4-9B不僅擁有更強(qiáng)的基礎(chǔ)能力,更長(zhǎng)的上下文,更精準(zhǔn)的函數(shù)調(diào)用和All Tools能力。

      比起上一代ChatGLM3-6B,在5倍的計(jì)算量下,GLM-49B的性能從61.4提升到了72.4,中英文綜合能力提升40%。

      另外,在與訓(xùn)練量更多的Llama-3-8B-Instruct較量中,GLM-4-9B毫不遜色。

      具體來說,英文方面,第四代模型小幅領(lǐng)先,而在中文學(xué)科方面實(shí)現(xiàn)了50%的提升。

      1M上下文,一次讀完2本《紅樓夢(mèng)》

      除此以外,GLM-4-9B的上下文從128K擴(kuò)展到了1M,可同時(shí)處理200萬字的輸入。

      這相當(dāng)于,能夠一次讀完2本《紅樓夢(mèng)》,又或是125篇論文。

      在長(zhǎng)度為128K的LongBench-Chat上,GLM-4-9B-Chat模型相比上一代提升了20%。同時(shí),在長(zhǎng)度為1M的大海撈針測(cè)試中,GLM-4-9B-Chat-1M獲得了「全綠」的成績(jī)。

      演示中,在1M版本模型中,輸入《三體》的三本全集,共90萬字的內(nèi)容。

      然后,給模型prompt「請(qǐng)仔細(xì)閱讀上面的三部小說,如果讓你給這個(gè)小說寫第四部,你會(huì)怎么寫,請(qǐng)給出大綱」。

      模型給出了比較合理的續(xù)寫規(guī)劃。

      另外,GLM-4-9B函數(shù)調(diào)用能力,比上一代大幅提升40%。

      在UC伯克利函數(shù)調(diào)用Leaderboard上,9B模型函數(shù)調(diào)用能力,即可媲美GPT-4-Turbo。

      智譜AI在開源倉庫中,還提供了一個(gè)完整的All Tools Demo,開發(fā)者可以在本地?fù)碛幸粋(gè)輕量級(jí)的清言平替。

      比如,先用網(wǎng)頁搜索「馬拉松的世界紀(jì)錄」,然后用代碼解釋器去計(jì)算「跑步平均速度」。

      搜索世界紀(jì)錄

      計(jì)算平均速度

      All Tools還有非常多的組合,開發(fā)者可以自行去探索。

      多模態(tài)比肩GPT-4V

      除了文本模型,這次一并開源了多模態(tài)模型GLM-4V-9B。

      最新模型采用了與CogVLM2相似的架構(gòu)設(shè)計(jì),能夠處理高達(dá)1120x1120分辨率的輸入,并通過降采樣技術(shù)有效減少了token的開銷。

      與CogVLM的不同之處在于,GLM-4V-9B并沒有通過引入額外的視覺專家來增加參數(shù)量,而是采用了直接混合文本和圖片數(shù)據(jù)的方式進(jìn)行訓(xùn)練。

      這種訓(xùn)練方法使得GLM-4V-9B模型能夠同時(shí)具備強(qiáng)大的文本和視覺處理能力,實(shí)現(xiàn)了真正的多模態(tài)學(xué)習(xí)。

      它能夠以13B總參數(shù)激活量,超越了一眾多模態(tài)模型,甚至比肩GPT-4V。

      不如看看,GLM-4V-9B在實(shí)際任務(wù)中的表現(xiàn)。

      比如,讓模型去識(shí)別T恤上的公式印花——麥克斯韋方程式。

      你甚至,還可以追問關(guān)于方程組的細(xì)節(jié),模型可以憑借自己的文本能力完成回答。

      這從另一方面印證了,并沒有因?yàn)橐攵嗄B(tài)能力,而喪失模型原本的文本能力。

      在下面這個(gè)例子中,是截取清華大學(xué)網(wǎng)絡(luò)學(xué)堂的一個(gè)網(wǎng)頁截圖,并要求模型翻譯成HTML代碼。

      GLM-4V-9B就可以識(shí)別出其中元素,并翻譯成相應(yīng)的代碼。

      整體來說,GLM-4-9B模型共有9.4B參數(shù),是在10T的高質(zhì)量多語言數(shù)據(jù)上,完成了預(yù)訓(xùn)練,幾乎利用了所有網(wǎng)頁數(shù)據(jù)。

      其數(shù)據(jù)量是ChatGLM3-6B模型的3倍還要多。

      與此同時(shí),智譜AI采用了FP8精度進(jìn)行高效的預(yù)訓(xùn)練并成功收斂,比起上一代模型,訓(xùn)練效率提升3.5倍。

      由此,智譜AI將參數(shù)規(guī)模從6B擴(kuò)展至9B,并將預(yù)訓(xùn)練計(jì)算量增加了5倍。

      基于文本基座,打造的多模態(tài)模型GLM-4V-9B,完全融合了文本和視覺模型,并與GPT-4V不相上下。

      成立于2019年,智譜AI用了4年的時(shí)間從一家明星創(chuàng)業(yè)公司,躋身為國(guó)內(nèi)頭部AI獨(dú)角獸。

      一直以來,外界對(duì)智譜的印象是,清華系國(guó)家隊(duì),全面對(duì)標(biāo)OpenAI技術(shù)領(lǐng)先,to B氣質(zhì)強(qiáng)烈。

      智譜不僅在大模型的能力上向OpenAI看齊,而且在投資領(lǐng)域布局上也不遑多讓,深受資本青睞。

      過去一年中,他們完成了3次基座大模型升級(jí)迭代,這次OpenDay 核心展示了面向AGI愿景的完整產(chǎn)品矩陣,透?jìng)鞒鑫磥砩虡I(yè)化的模式。

      智譜AI正把MaaS商業(yè)模式提升到新的境界。MaaS平臺(tái)2.0的誕生,將會(huì)進(jìn)一步擴(kuò)大智譜生態(tài)朋友圈。

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。

    即時(shí)

    新聞

    明火炊具市場(chǎng):三季度健康屬性貫穿全類目

    奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。

    企業(yè)IT

    重慶創(chuàng)新公積金應(yīng)用,“區(qū)塊鏈+政務(wù)服務(wù)”顯成效

    “以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。

    3C消費(fèi)

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,高能實(shí)力,創(chuàng)

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡(jiǎn)直是創(chuàng)作者們的首選。

    研究

    中國(guó)信通院羅松:深度解讀《工業(yè)互聯(lián)網(wǎng)標(biāo)識(shí)解析體系

    9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會(huì)——工業(yè)互聯(lián)網(wǎng)標(biāo)識(shí)解析專題論壇在沈陽成功舉辦。