合合信息啟信產(chǎn)業(yè)大腦攜手市北新區(qū)打造“一企一畫像”平臺,加速數(shù)字化轉(zhuǎn)型重慶:力爭今年智能網(wǎng)聯(lián)新能源汽車產(chǎn)量突破 100 萬輛,到 2027 年建成萬億級產(chǎn)業(yè)集群微信iOS最新版上線:iPhone用戶可在朋友圈發(fā)實(shí)況照片了蘋果有線耳機(jī)或?qū)⑼.a(chǎn)沖上熱搜!閑魚相關(guān)搜索量暴漲384%2024 vivo開發(fā)者大會官宣:OriginOS 5/自研藍(lán)河系統(tǒng)2降臨真·AI程序員來了,阿里云「通義靈碼」全面進(jìn)化,全流程開發(fā)僅用幾分鐘東方甄選烤腸全網(wǎng)銷量及銷售額領(lǐng)先鴻蒙PC要來了 界面很漂亮!余承東:目前華為PC將是最后一批搭載Windows上半年中國AR/VR出貨23.3萬臺,同比下滑了 29.1%IDC:2024 上半年中國 AR / VR 頭顯出貨 23.3 萬臺,同比下滑 29.1%英特爾AI加速器Gaudi3下周發(fā)布,挑戰(zhàn)NVIDIA統(tǒng)治地位!大屏技術(shù)邂逅千年色彩美學(xué)!海信激光電視成為電影《只此青綠》官方合作伙伴OpenAI將最新AI模型o1擴(kuò)展到企業(yè)和教育領(lǐng)域三星新專利探索AR技術(shù)新應(yīng)用:檢測屏幕指紋殘留,提高手機(jī)安全性猛瑪傳奇C1:直播圖傳技術(shù)的革新者JFrog推出首個運(yùn)行時安全解決方案,實(shí)現(xiàn)從代碼到云的全面軟件完整性和可追溯性亞馬遜推出一大波生成式 AI 工具,購物體驗(yàn)全面升級機(jī)器人公司1X推出世界模型Apple Intelligence測試版現(xiàn)已開放革命性AI對話系統(tǒng)Moshi問世:機(jī)器也能說人話了?
  • 首頁 > 云計算頻道 > 云計算

    騰訊云織了張AI大模型的“網(wǎng)”

    2023年06月28日 10:42:57   來源:光子星球

      眼下AIGC激蕩著各個行業(yè),隨著產(chǎn)品落地、應(yīng)用增加,如何提升算力成為了整個行業(yè)的迫切需求,不過算力的提升并非只靠購買大量的GPU就能實(shí)現(xiàn),網(wǎng)絡(luò)基礎(chǔ)設(shè)施起著至關(guān)重要的作用。

      由于GPU集群之間的數(shù)據(jù)交換與通信都要依靠網(wǎng)絡(luò)承接,如果網(wǎng)絡(luò)帶寬不夠大、延時長,不僅會讓算力邊際遞減,而且還增加了大模型訓(xùn)練的時間成本。因此大帶寬、高利用率并且信息無損的高性能網(wǎng)絡(luò)對于當(dāng)下算力的提升尤為重要。

      日前,騰訊云在北京舉辦了一場面向AI大模型的高性能網(wǎng)絡(luò)溝通會,向外界首次完整披露了其自研的星脈高性能網(wǎng)絡(luò)。

      騰訊云副總裁王亞晨提到,星脈網(wǎng)絡(luò)為大模型而生,提供大帶寬、高利用率、零丟包率的高性能網(wǎng)絡(luò)服務(wù),從而突破算力瓶頸。騰訊數(shù)據(jù)中心網(wǎng)絡(luò)總監(jiān)李翔在介紹星脈的演進(jìn)過程時,用了一個通俗的比喻:如今業(yè)務(wù)和客戶對我們算力網(wǎng)絡(luò)有了更高要求,過去前兩個階段我們是“村村通”,解決大規(guī)模部署和廣覆蓋的問題,到了第三個階段的星脈網(wǎng)絡(luò),我們要做的是全自動化、無擁塞的高速公路。

      溝通會上,騰訊云展示了在交換機(jī)、通信協(xié)議、通信庫以及運(yùn)營系統(tǒng)等軟硬件方面的升級,推出了自研的大模型專屬高性能網(wǎng)絡(luò)“星脈”。

      在硬件方面,在硬件方面,星脈網(wǎng)絡(luò)自研白盒交換機(jī),這是一種軟硬件解耦的開放網(wǎng)絡(luò)設(shè)備,采用四層解耦體系,包括接入、轉(zhuǎn)發(fā)、路由、管控系統(tǒng)。在自研設(shè)備的基礎(chǔ)之上,騰訊云還構(gòu)建了自研網(wǎng)絡(luò)操作系統(tǒng),包括網(wǎng)絡(luò)OS與網(wǎng)管平臺,構(gòu)建了互聯(lián)底座,實(shí)現(xiàn)自動化部署和配置。

      在軟件方面,騰訊云自研的TiTa網(wǎng)絡(luò)協(xié)議,能夠?qū)崟r監(jiān)測并調(diào)整網(wǎng)絡(luò)擁塞,TiTa網(wǎng)絡(luò)協(xié)議能夠提升40%的帶寬負(fù)載,還能提供低延時無損網(wǎng)絡(luò),實(shí)現(xiàn)高負(fù)載下的0丟包,使集群通信效率達(dá)90%以上。

      此外,騰訊云還為星脈網(wǎng)絡(luò)設(shè)計了高性能集合通信庫TCCL,為星脈網(wǎng)絡(luò)提供定制化的高性能節(jié)點(diǎn)間數(shù)據(jù)通信解決方案。結(jié)合動態(tài)調(diào)度機(jī)制合理分配通信通道,可以避免因網(wǎng)絡(luò)問題導(dǎo)致的訓(xùn)練中斷等問題,讓通信時延降低40%。

      騰訊云方面稱,星脈網(wǎng)絡(luò)集成了騰訊自研技術(shù)積累,以極致高性能實(shí)現(xiàn)了AI大模型通信性能的10倍提升,GPU利用率40%提升,通信時延降低40%,支持10萬級 GPU 集群組網(wǎng);谌匝芯W(wǎng)絡(luò)硬件平臺網(wǎng)絡(luò)建設(shè)成本降低30%,模型訓(xùn)練成本節(jié)省30%~60%。

      王亞晨與李翔在會上回應(yīng)了諸多外界關(guān)注的問題。

      提問:騰訊高性能網(wǎng)絡(luò)的主要優(yōu)勢在哪里?技術(shù)關(guān)鍵點(diǎn)集中在哪些地方?

      王亞晨:騰訊在以太網(wǎng)上的優(yōu)化從去年年初就開始了。從國內(nèi)來看,我們是以太網(wǎng)里針對GPU優(yōu)化比較有優(yōu)勢的,為什么我們會和其他廠商做那么多全調(diào)度以太網(wǎng)的合作?因?yàn)槲覀冏隽撕芏鄡?yōu)化,尤其是在協(xié)議自研這塊。

      另一個優(yōu)勢在于我們的架構(gòu)。我們是把存儲跟計算做了分離,保證兩邊的性能更優(yōu)。

      無論是1.6T還是3.2T的GPU,我們可能用了8張GPU,一個CPU,加上8張網(wǎng)卡,但騰訊做了一些優(yōu)化,8個網(wǎng)卡,一個網(wǎng)卡兩個端口。好處是一旦有一個端口故障,另一個端口能夠快速切上來,流量之間不受任何影響,也涉及到和交換機(jī)、和軟件的配合,這種技術(shù)是我們的特色。

      提問:做大模型對網(wǎng)絡(luò)技術(shù)的核心要求,解決零丟包、低延時最大的技術(shù)困難是哪些呢?

      王亞晨:當(dāng)時我們遇到的最大困難是“擁塞控制”。去年年中,騰訊已經(jīng)建了2K-4K的GPU集群用于模型訓(xùn)練,那時候我們用一級,最多兩級交換機(jī)就OK了。

      但大模型出來后,GPU規(guī)模建設(shè)需求已經(jīng)是萬卡規(guī)模,這時候整個交換機(jī)組網(wǎng)規(guī)模必須要到三級了,因?yàn)槲覀兘粨Q的芯片容量是主流的25.6T,128個網(wǎng)口,它決定了組網(wǎng)的規(guī)模兩級最優(yōu)是4K,這決定了我們要做更大規(guī)模時交換機(jī)一定要做三級,便會遇到擁塞控制的問題,到今年年底擴(kuò)容到51.2T時會好一點(diǎn)。

      雖然之前裝了TiTa已經(jīng)一定程度上解決了擁塞。但到三級之后,因?yàn)閾砣豢煽,之前的機(jī)制不完全能達(dá)到很好的效果,所以我們得做新的擁塞控制機(jī)制,這也是現(xiàn)在業(yè)界講到的主動擁塞控制。

      在GPU發(fā)包時要先了解網(wǎng)絡(luò)的狀況,有點(diǎn)類似于我出門前,先看看是否擁堵,如果擁堵,系統(tǒng)主動告訴我先不做。以前以太網(wǎng)都是被動擁塞控制,擁塞了才調(diào)度,但主動擁塞控制機(jī)制一定要在網(wǎng)卡發(fā)包時和交換機(jī)配合。

      為什么現(xiàn)在我們要自研新的算力網(wǎng)卡,其實(shí)它解決的是在多級組網(wǎng)情況下更好的擁塞控制,這是當(dāng)時我們面臨的挑戰(zhàn),也和我們現(xiàn)在的一些能力相關(guān)。

      另一個是帶寬利用率的提升,F(xiàn)在我們做到95%左右的帶寬利用率,實(shí)際上到新的3.2T服務(wù)器接入與三級架構(gòu)時,我們發(fā)現(xiàn)這個帶寬利用率會遇到巨大挑戰(zhàn)。帶寬利用率要消除網(wǎng)絡(luò)不均勻的問題,之前我們用哈希(Hash)的方式。

      現(xiàn)在以太網(wǎng)是基于流調(diào)度,流有長有短,類似于路上跑的車有的大馬力有的小馬力,即使哈希到不同路徑,你卻不知道每個流的長短是什么樣,很難完全消除不均勻。

      怎么做?現(xiàn)在以太網(wǎng)里有幾個做法,一個是定長包,網(wǎng)卡側(cè)發(fā)包時是定長的包,等于你看到的車都是標(biāo)準(zhǔn)化大小,這時候我再去哈希到不同路徑,一定是相對均勻。這就是為什么我們要把端側(cè)發(fā)包時變成定長的包,交換機(jī)要支持定長包的處理,同時定長包很容易出現(xiàn)亂序的問題,所以我們還要和端側(cè)配合,保證不同的包雖然都是定長的,傳過來可能有快有慢,還要把亂序的問題解決,這也要靠端側(cè)解決。

      總而言之,擁塞控制與帶寬利用率是我們當(dāng)下遇到最大的兩個挑戰(zhàn)。

      提問:在網(wǎng)絡(luò)管理和硬件設(shè)計上,我們傾向于采用集中式還是分布式?

      李翔:分布和集中都是設(shè)計網(wǎng)絡(luò)的工具手段,我們會根據(jù)的場景需求來選擇。在網(wǎng)絡(luò)技術(shù)上,集中和分布一直是亙古不變的議題,網(wǎng)絡(luò)中SDN2008年提出來到現(xiàn)在二十年了,集中后,下面被管理的網(wǎng)源會比較簡單。集中管理、集中部署,下面的網(wǎng)元會非常簡單,成本比較低。但現(xiàn)在分布式是現(xiàn)在網(wǎng)絡(luò)比較認(rèn)可的生態(tài)形式,分布式管理能夠復(fù)用我們之前的運(yùn)營積累,確保運(yùn)營質(zhì)量。

      王亞晨:滿足可擴(kuò)展性和運(yùn)營安全性,這也是很關(guān)鍵的考量。騰訊基礎(chǔ)設(shè)施最主要的生命線是網(wǎng)絡(luò)質(zhì)量,大系統(tǒng)肯定有大系統(tǒng)的好處,性能肯定更高,一旦出現(xiàn)故障,我們的分布式化可以減小故障率,這是最大的好處。我們把路由器拆成很多小的路由模塊,可以跑到容器里,讓我們整個網(wǎng)絡(luò)更可靠。

      類似于最早的網(wǎng)絡(luò)都是集中化的大盒子設(shè)備,無論是交換機(jī)、路由器還是運(yùn)營商的基站、核心網(wǎng),都是集中化的。但云廠商不一樣,我們基本是全自研,都是一套自研系統(tǒng),自主控制,不用引入太多異廠家的交互性。所以一定要在自研情況下做分布式更好,如果不是自研能力,靠各種廠家做分布式,本質(zhì)上來講一個廠家自己分布沒問題,一旦引入另一個廠家混合搞,可能就復(fù)雜很多了。

      提問:之前說到白盒交換機(jī)的問題,可以多介紹一下嗎?

      李翔:首先我們?yōu)槭裁匆霭缀?剛才提到,交換機(jī)從最早的幾臺一直到現(xiàn)在幾十萬臺在網(wǎng),每年可能有幾萬臺的采購量。面對大量級的需求,我們遇到了一些比較現(xiàn)實(shí)的問題。廠商會賣給你非常完善的解決方案,有幾千個共同特性,所以迭代周期很慢。

      我們從兩個維度考慮問題,第一個維度從質(zhì)量考慮,我們希望對軟件做減法。比如90%我是不是可以裁掉,自己用非常少的人維護(hù)起來,可以快迭代、快修復(fù),從實(shí)際部署來說軟件自主研發(fā)之后,顯著提升了質(zhì)量。

      第二就是在硬件角度,我們是“海底撈”模式,商業(yè)交換機(jī)賣的是滿漢全席,是粵菜,但比較貴,我們只需要一款交換機(jī),做減法。我們直接跟上游芯片商合作可以更快享受技術(shù)能力,過程更加透明,供應(yīng)商利潤也比較合理。

      所以我們做白盒有兩個維度,第一個維度在軟件上,更多是質(zhì)量和迭代效率的考慮,硬件上是從成本上考慮,能夠把它變得更加透明化。

      提問:如果將來你們接入其它模型,很多用戶在上面訓(xùn)練,網(wǎng)絡(luò)安全可能就比以前更重要了,以前只有你們自己在用,這方面不知道你們有什么設(shè)計或者已經(jīng)做的事情?

      李翔:數(shù)據(jù)安全的問題在公有云時代是特別重要的。騰訊有七大安全實(shí)驗(yàn)室,都是做網(wǎng)絡(luò)安全,我們整個技術(shù)網(wǎng)絡(luò)有非常完善的虛擬化技術(shù),還有做租戶隔離、存儲隔離,這些都是比較扎實(shí)的技術(shù)底座,同時內(nèi)部還會有各種各樣高級別的科學(xué)家?guī)ьI(lǐng)團(tuán)隊做各種模擬攻擊,保證不會被攻破。安全問題一直是云客戶最重要的事情。

      回到GPU,一方面我們復(fù)用了它的能力,比如存儲,直接復(fù)用云大盤的能力,對于基座的物理服務(wù)器可能更復(fù)雜,因?yàn)樗容^追求性能,云上做隔離。但是容器、虛擬化對GPU服務(wù)器有嚴(yán)格的性能要求,需要一個物理機(jī),這時候我們就只能把隔離監(jiān)控全部放到網(wǎng)絡(luò)上做。

      王亞晨:星脈除了支持騰訊自己的大模型以外,在騰訊云上也支持很多其它客戶的模型做訓(xùn)練,有些客戶對于性能覺得虛機(jī)也OK,我們就以大盤的能力來保證整個網(wǎng)絡(luò)的安全。另外剛才說的信息安全,防攻擊那些,都是騰訊云上面比較完善的體系。

      提問:針對騰訊之外的廠商,我們主要提供技術(shù)支持,還是也提供大模型相關(guān)的解決方案?

      王亞晨:我們整個技術(shù)底座除了騰訊自身以外也在支持騰訊云的算力集群,在騰訊云上也可以給客戶售賣,今天沒有專門講這個解決方案。我們除了提供GPU的IaaS服務(wù)以外也會配合上面的訓(xùn)練框架、加速框架這些PaaS的可選服務(wù),根據(jù)團(tuán)隊訓(xùn)練的模型和你的需求定制選購;旧弦恍┐蟮墓具是選擇以IaaS服務(wù)為主,這也是騰訊云以標(biāo)準(zhǔn)產(chǎn)品給到客戶。

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。

    即時

    TCL實(shí)業(yè)榮獲IFA2024多項大獎,展示全球科技創(chuàng)新力量

    近日,德國柏林國際電子消費(fèi)品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項“IFA全球產(chǎn)品設(shè)計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強(qiáng)大影響力。

    新聞

    敢闖技術(shù)無人區(qū) TCL實(shí)業(yè)斬獲多項AWE 2024艾普蘭獎

    近日,中國家電及消費(fèi)電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。

    企業(yè)IT

    重慶創(chuàng)新公積金應(yīng)用,“區(qū)塊鏈+政務(wù)服務(wù)”顯成效

    “以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。

    研究

    2024全球開發(fā)者先鋒大會即將開幕

    由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。