由多方企業(yè)和機構(gòu)組成的日本聯(lián)合研究團隊昨日發(fā)布了 Fugaku-LLM 大模型。該模型的最大特色就是其是在 Arm 架構(gòu)超算“富岳”上訓練的。
Fugaku-LLM 模型的開發(fā)于 2023 年 5 月啟動,初期參與方包括富岳超算所有者富士通、東京工業(yè)大學、日本東北大學和日本理化學研究所(理研)。
而在 2023 年 8 月,另外三家合作方 —— 名古屋大學、CyberAgent(也是游戲企業(yè) Cygames 的母公司)和 HPC-AI 領(lǐng)域創(chuàng)企 Kotoba Technologies 也加入了該模型研發(fā)計劃。
在昨日發(fā)布的新聞稿中,研究團隊表示其充分挖掘了富岳超算的性能,將矩陣乘法的計算速度提高了 6 倍,通信速度也提升了 3 倍,證明大型純 CPU 超算也可用于大模型訓練。
Fugaku-LLM 模型參數(shù)規(guī)模為 13B,是日本國內(nèi)最大的大型語言模型。
其使用了 13824 個富岳超算節(jié)點在3800 億個 Token 上進行訓練,其訓練資料中 60% 為日語,其他 40% 包括英語、數(shù)學、代碼等部分。
該模型的研究團隊宣稱 Fugaku-LLM 模型可在交流中自然使用日語敬語等特殊表達。
具體到測試成績上,該模型在日語 MT-Bench 模型基準測試上的平均得分為 5.5,排在基于日本語料資源的開放模型首位,并在人文社科類別中得到了 9.18 的高分。
目前 Fugaku-LLM 模型已在 GitHub 和 Hugging Face 平臺公開,外部研究人員和工程師可在遵守許可協(xié)議的前提下將該模型用于學術(shù)和商業(yè)目的。
IT之家在此附上 Fugaku-LLM 模型在 Hugging Face 平臺的地址,有興趣的小伙伴可點擊進一步了解:相關(guān)鏈接
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設(shè)計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導,由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。