1. <td id="68o0q"></td>

  2. <pre id="68o0q"><label id="68o0q"><menu id="68o0q"></menu></label></pre>
    <table id="68o0q"></table>
  3. <td id="68o0q"></td>

      您現在的位置是:汽車(chē)電瓶 >>正文

      在富岳超算上訓練大模型 日本聯(lián)合研究團隊發(fā)布Fugaku

      汽車(chē)電瓶518人已圍觀(guān)

      簡(jiǎn)介IT之家5月11日消息,由多方企業(yè)和機構組成的日本聯(lián)合研究團隊昨日發(fā)布了Fugaku-LLM大模型。該模型的最大特色就是其是在A(yíng)rm架構超算“富岳”上訓練的。Fugaku-LLM模型的開(kāi)發(fā)于2023年 ...

      IT之家5月11日消息,富岳發(fā)布由多方企業(yè)和機構組成的超算日本聯(lián)合研究團隊昨日發(fā)布了Fugaku-LLM大模型。該模型的上訓最大特色就是其是在A(yíng)rm架構超算“富岳”上訓練的。

      Fugaku-LLM模型的練大聯(lián)合開(kāi)發(fā)于2023年5月啟動(dòng),初期參與方包括富岳超算所有者富士通、模型東京工業(yè)大學(xué)、日本日本東北大學(xué)和日本理化學(xué)研究所(理研)。研究

      而在2023年8月,團隊另外三家合作方——名古屋大學(xué)、富岳發(fā)布CyberAgent(也是超算游戲企業(yè)Cygames的母公司)和HPC-AI領(lǐng)域創(chuàng )企Kotoba Technologies也加入了該模型研發(fā)計劃。

      在富岳超算上訓練大模型 日本聯(lián)合研究團隊發(fā)布Fugaku-LLM

      據悉,上訓研究團隊表示其充分挖掘了富岳超算的練大聯(lián)合性能,將矩陣乘法的模型計算速度提高了6倍,通信速度也提升了3倍,日本證明大型純CPU超算也可用于大模型訓練。研究

      Fugaku-LLM模型參數規模為13B,是日本國內最大的大型語(yǔ)言模型。

      其使用了13824個(gè)富岳超算節點(diǎn)在3800億個(gè)Token上進(jìn)行訓練,其訓練資料中60%為日語(yǔ),其他40%包括英語(yǔ)、數學(xué)、代碼等部分。

      該模型的研究團隊宣稱(chēng)Fugaku-LLM模型可在交流中自然使用日語(yǔ)敬語(yǔ)等特殊表達。

      具體到測試成績(jì)上,該模型在日語(yǔ)MT-Bench模型基準測試上的平均得分為5.5,排在基于日本語(yǔ)料資源的開(kāi)放模型首位,并在人文社科類(lèi)別中得到了9.18的高分。

      目前Fugaku-LLM模型已在GitHub和Hugging Face平臺公開(kāi),外部研究人員和工程師可在遵守許可協(xié)議的前提下將該模型用于學(xué)術(shù)和商業(yè)目的。

      Tags:

      相關(guān)文章

      ?
      一级毛片在线_国产一区视频一区欧美_日韩丰满少妇无码_东京热无码中文字幕av免费

      1. <td id="68o0q"></td>

      2. <pre id="68o0q"><label id="68o0q"><menu id="68o0q"></menu></label></pre>
        <table id="68o0q"></table>
      3. <td id="68o0q"></td>