在富岳超算上訓練大模型 日本聯(lián)合研究團隊發(fā)布Fugaku-LLM
- 來源:IT之家
- 作者:3DM整理
- 編輯:方形的圓
IT之家5月11日消息,由多方企業(yè)和機構組成的日本聯(lián)合研究團隊昨日發(fā)布了Fugaku-LLM大模型。該模型的最大特色就是其是在Arm架構超算“富岳”上訓練的。
Fugaku-LLM模型的開發(fā)于2023年5月啟動,初期參與方包括富岳超算所有者富士通、東京工業(yè)大學、日本東北大學和日本理化學研究所(理研)。
而在2023年8月,另外三家合作方——名古屋大學、CyberAgent(也是游戲企業(yè)Cygames的母公司)和HPC-AI領域創(chuàng)企Kotoba Technologies也加入了該模型研發(fā)計劃。
據悉,研究團隊表示其充分挖掘了富岳超算的性能,將矩陣乘法的計算速度提高了6倍,通信速度也提升了3倍,證明大型純CPU超算也可用于大模型訓練。
Fugaku-LLM模型參數規(guī)模為13B,是日本國內最大的大型語言模型。
其使用了13824個富岳超算節(jié)點在3800億個Token上進行訓練,其訓練資料中60%為日語,其他40%包括英語、數學、代碼等部分。
該模型的研究團隊宣稱Fugaku-LLM模型可在交流中自然使用日語敬語等特殊表達。
具體到測試成績上,該模型在日語MT-Bench模型基準測試上的平均得分為5.5,排在基于日本語料資源的開放模型首位,并在人文社科類別中得到了9.18的高分。
目前Fugaku-LLM模型已在GitHub和Hugging Face平臺公開,外部研究人員和工程師可在遵守許可協(xié)議的前提下將該模型用于學術和商業(yè)目的。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論