亚洲av中文无码乱人伦在线视色,网曝黑料国产吃瓜,无码国产精品久久一区免费,亚洲av在在线观看,亚洲av国产午夜精品一区二区

韓國(guó)KAIST通過(guò)模仿人腦以超低功耗進(jìn)行 LLM 處理,首次開發(fā)出AI半導(dǎo)體技術(shù)

據(jù)韓聯(lián)社 3月 6日?qǐng)?bào)道,韓國(guó)科學(xué)技術(shù)信息通信部6日宣布,韓國(guó)科學(xué)技術(shù)院(KAIST)PIM半導(dǎo)體研究中心和人工智能半導(dǎo)體研究生院Yoo Hoi-jun教授的研究團(tuán)隊(duì)通過(guò)三星電子28納米工藝,開發(fā)出可以超高速處理大型語(yǔ)言模型 (LLM),且最小化功耗的一種核心人工智能(AI)半導(dǎo)體技術(shù)“Complementary-Transformer。”

韓國(guó)KAIST通過(guò)模仿人腦以超低功耗進(jìn)行 LLM 處理,首次開發(fā)出AI半導(dǎo)體技術(shù)

圖片來(lái)自:韓聯(lián)社

此次開發(fā)的AI半導(dǎo)體硬件單元是結(jié)合DNN和SNN的神經(jīng)網(wǎng)絡(luò)架構(gòu),可降低輸出單元的功耗并使用LLM參數(shù)的壓縮技術(shù)。將GPT-2巨型模型的參數(shù)從7.08億個(gè)減少到1.91億個(gè),用于翻譯的T5模型的參數(shù)從4.02億個(gè)減少到7600萬(wàn)個(gè)。通過(guò)這種壓縮,成功地將外部存儲(chǔ)器加載語(yǔ)言模型參數(shù)所消耗的功耗降低了70%。其消耗的功率是NVIDIA A100 GPU的1/625,同時(shí)實(shí)現(xiàn)使用GPT-2模型的語(yǔ)言生成0.4秒的高速運(yùn)行以及使用T5模型的語(yǔ)言翻譯0.2秒的高速運(yùn)行,生成語(yǔ)言準(zhǔn)確率下降了1.2 分支系數(shù)(越低意味著語(yǔ)言模型學(xué)得越好)。

Hoejun Yoo教授表示:“神經(jīng)擬態(tài)計(jì)算是設(shè)備端人工智能的核心技術(shù),是一項(xiàng)連IBM和英特爾等公司都無(wú)法實(shí)現(xiàn)的技術(shù),我們很自豪能夠成為世界上第一個(gè)使用超低功耗神經(jīng)擬態(tài)計(jì)算來(lái)運(yùn)行大型模型的公司?!?/p>

(編譯:天容)

相關(guān)新聞

聯(lián)系我們
聯(lián)系我們
公眾號(hào)
公眾號(hào)
在線咨詢
返回頂部