AI21發(fā)布了世界首個(gè)Mamba的生產(chǎn)級(jí)模型:Jamba。這個(gè)模型采用了開創(chuàng)性的SSM-Transformer架構(gòu),具有52B參數(shù),其中12B在生成時(shí)處于活動(dòng)狀態(tài)。Jamba結(jié)合了Joint Attention和Mamba技術(shù),支持256K上下文長(zhǎng)度。單個(gè)A10080GB最多可容納140K上下文。與Mixtral8x7B相比,長(zhǎng)上下文的吞吐量提高了3倍。
Jamba代表了在模型設(shè)計(jì)上的一大創(chuàng)新。它結(jié)合了Mamba結(jié)構(gòu)化狀態(tài)空間(SSM)技術(shù)和傳統(tǒng)的Transformer架構(gòu)的元素,彌補(bǔ)了純SSM模型固有的局限。Mamba是一種結(jié)構(gòu)化狀態(tài)空間模型(Structured State Space Model, SSM),這是一種用于捕捉和處理數(shù)據(jù)隨時(shí)間變化的模型,特別適合處理序列數(shù)據(jù),如文本或時(shí)間序列數(shù)據(jù)。SSM模型的一個(gè)關(guān)鍵優(yōu)勢(shì)是其能夠高效地處理長(zhǎng)序列數(shù)據(jù),但它在處理復(fù)雜模式和依賴時(shí)可能不如其他模型強(qiáng)大。
而Transformer架構(gòu)是近年來人工智能領(lǐng)域最為成功的模型之一,特別是在自然語言處理(NLP)任務(wù)中。它能夠非常有效地處理和理解語言數(shù)據(jù),捕捉長(zhǎng)距離的依賴關(guān)系,但處理長(zhǎng)序列數(shù)據(jù)時(shí)會(huì)遇到計(jì)算效率和內(nèi)存消耗的問題。
Jamba模型將Mamba的SSM技術(shù)和Transformer架構(gòu)的元素結(jié)合起來,旨在發(fā)揮兩者的優(yōu)勢(shì),同時(shí)克服它們各自的局限。通過這種結(jié)合,Jamba不僅能夠高效處理長(zhǎng)序列數(shù)據(jù)(這是Mamba的強(qiáng)項(xiàng)),還能保持對(duì)復(fù)雜語言模式和依賴關(guān)系的高度理解(這是Transformer的優(yōu)勢(shì))。這意味著Jamba模型在處理需要理解大量文本和復(fù)雜依賴關(guān)系的任務(wù)時(shí),既能保持高效率,又不會(huì)犧牲性能或精度。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
近日,德國(guó)柏林國(guó)際電子消費(fèi)品展覽會(huì)(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計(jì)及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計(jì)創(chuàng)新大獎(jiǎng)”金獎(jiǎng),有力證明了其在全球市場(chǎng)的強(qiáng)大影響力。
近日,中國(guó)家電及消費(fèi)電子博覽會(huì)(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎(jiǎng)。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
由世界人工智能大會(huì)組委會(huì)、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會(huì)共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會(huì)聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開放原子開源基金會(huì)主辦的“2024全球開發(fā)者先鋒大會(huì)”,將于2024年3月23日至24日舉辦。