精品久久久久久中文字幕,狠狠干夜夜操,高h纯肉无码视频在线观看,日韩欧美成人一区二区三区,日本三级电影精品五区

Jul 22, 2020

MIT:深度學(xué)習(xí)過度依賴算力將遇“瓶頸”,三年的算法改進(jìn)才能將算力提高10倍


我們正在接近深度學(xué)習(xí)的計(jì)算極限。麻省理工大學(xué)(MIT)、安德伍德國際學(xué)院和巴西利亞大學(xué)的研究人員們表示,他們在最近的一項(xiàng)研究中發(fā)現(xiàn),深度學(xué)習(xí)的進(jìn)步“強(qiáng)烈地”依賴于計(jì)算的增長。這種過度依賴,或?qū)?dǎo)致深度學(xué)習(xí)在后摩爾定律時(shí)代遭遇“瓶頸”。

他們斷言,要不斷進(jìn)步,就需要通過對現(xiàn)有技術(shù)的更改或通過尚未發(fā)現(xiàn)的新方法來“大幅”提高計(jì)算效率的深度學(xué)習(xí)方法。

d52a2834349b033b9f6598c4537accd5d439bd7e

“深度學(xué)習(xí)不是偶然的計(jì)算代價(jià),而是設(shè)計(jì)的代價(jià)。共同的靈活性使它能夠出色地建模各種現(xiàn)象,并且性能優(yōu)于專家模型,這也使其在計(jì)算上的成本大大提高?!薄氨M管如此,我們發(fā)現(xiàn)深度學(xué)習(xí)模型的實(shí)際計(jì)算負(fù)擔(dān)要比理論上的(已知)下界更快地?cái)U(kuò)展,這表明可能有實(shí)質(zhì)性的改進(jìn)?!?/span>

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的子領(lǐng)域,涉及受大腦結(jié)構(gòu)和功能啟發(fā)的算法。這些算法(稱為人工神經(jīng)網(wǎng)絡(luò))由功能(神經(jīng)元)組成,這些功能按層排列,將信號傳輸?shù)狡渌窠?jīng)元。信號是輸入到網(wǎng)絡(luò)中的輸入數(shù)據(jù)的產(chǎn)物,從一層到另一層傳播并緩慢地“調(diào)諧”網(wǎng)絡(luò),實(shí)際上是在調(diào)整每個(gè)連接的突觸強(qiáng)度(權(quán)重)。網(wǎng)絡(luò)最終通過從數(shù)據(jù)集中提取特征并識(shí)別交叉樣本趨勢來學(xué)習(xí)進(jìn)行預(yù)測。

在他們的研究中,研究人員分析了預(yù)印服務(wù)器Arxiv.org以及其他基準(zhǔn)測試來源的1,058篇論文,以了解深度學(xué)習(xí)性能與計(jì)算之間的聯(lián)系,并特別關(guān)注以下領(lǐng)域:圖像分類、目標(biāo)檢測、問題解答,命名實(shí)體識(shí)別和機(jī)器翻譯。他們對計(jì)算需求進(jìn)行了兩次單獨(dú)的分析,反映了可用的兩種信息:

- 在給定的深度學(xué)習(xí)模型中,每次網(wǎng)流的計(jì)算或單遍傳播所需的浮點(diǎn)操作數(shù)(即權(quán)重調(diào)整)。

- 硬件負(fù)擔(dān)或用于訓(xùn)練模型的硬件的計(jì)算能力,計(jì)算方式為處理器數(shù)量乘以計(jì)算速率和時(shí)間。(研究人員承認(rèn),盡管這是一種不精確的計(jì)算方法,但在他們分析的論文中,對這種計(jì)算方式的報(bào)告比其他基準(zhǔn)要廣泛。)

810a19d8bc3eb135d2c8081eefaa52d5fc1f4447

合著者表示,除從英語到德語的機(jī)器翻譯(使用的計(jì)算能力幾乎沒有變化)之外,所有基準(zhǔn)測試的斜率都很高,并且解釋力很強(qiáng)。對象檢測、命名實(shí)體識(shí)別以及機(jī)器翻譯尤其顯示出硬件負(fù)擔(dān)的大幅增加,而結(jié)果的改善卻相對較小。在流行的開源ImageNet基準(zhǔn)測試中,計(jì)算能力貢獻(xiàn)了圖像分類準(zhǔn)確度的43%差異。

f2deb48f8c5494eeb7a53d3161411af898257e49

最后研究人員們得出結(jié)論,他們估計(jì)——計(jì)算能力提高10倍相當(dāng)于三年的算法改進(jìn)。他們寫道:“總體而言,我們的結(jié)果清楚地表明,在深度學(xué)習(xí)的許多領(lǐng)域中,訓(xùn)練模型的進(jìn)步取決于所使用的計(jì)算能力的大幅提高?!薄傲硪环N可能性是,要改進(jìn)算法本身,可能需要互補(bǔ)地提高計(jì)算能力?!?/span>

在研究過程中,研究人員還對預(yù)測進(jìn)行了推斷,以了解達(dá)到各種理論基準(zhǔn)所需的計(jì)算能力以及相關(guān)的經(jīng)濟(jì)和環(huán)境成本。即使是最樂觀的計(jì)算,要降低ImageNet上的圖像分類錯(cuò)誤率,也需要進(jìn)行105次以上的計(jì)算。

深度學(xué)習(xí)需要的硬件負(fù)擔(dān)和計(jì)算次數(shù),背后消耗的是巨額資金花費(fèi)。一份Synced報(bào)告估計(jì),華盛頓大學(xué)的Grover假新聞檢測模型在大約兩周的時(shí)間內(nèi)培訓(xùn)費(fèi)用為25,000美元。據(jù)報(bào)道,OpenAI花費(fèi)了高達(dá)1200萬美元來訓(xùn)練其GPT-3語言模型,而Google估計(jì)花費(fèi)了6,912美元來訓(xùn)練BERT,這是一種雙向轉(zhuǎn)換器模型,可重新定義11種自然語言處理任務(wù)的最新水平。

在去年6月的馬薩諸塞州大學(xué)阿默斯特分校的另一份報(bào)告中,得出的結(jié)論是,訓(xùn)練和搜索某種模型所需的電量涉及大約626,000磅的二氧化碳排放量。這相當(dāng)于美國普通汽車使用壽命內(nèi)排放量的將近5倍。

研究人員還指出,在算法水平上進(jìn)行深度學(xué)習(xí)改進(jìn)已有先例。他們提到了硬件加速器的出現(xiàn),例如Google的張量處理單元,現(xiàn)場可編程門陣列(FPGA)和專用集成電路(ASIC),并試圖通過網(wǎng)絡(luò)壓縮和加速技術(shù)來降低計(jì)算復(fù)雜性。他們還引用了神經(jīng)體系結(jié)構(gòu)搜索和元學(xué)習(xí),它們使用優(yōu)化來查找在一類問題上保持良好性能的體系結(jié)構(gòu),以此作為計(jì)算上有效的改進(jìn)方法的途徑。

實(shí)際上,一項(xiàng)OpenAI研究表明,自2012年以來,每16個(gè)月將AI模型訓(xùn)練到ImageNet圖像分類中相同性能所需的計(jì)算量就減少了一半。Google的Transformer架構(gòu)超越了seq2(也是由Google開發(fā)的模型),在seq2seq推出三年后,計(jì)算量減少了61倍。DeepMind的AlphaZero是一個(gè)從頭開始學(xué)習(xí)如何掌握國際象棋、將棋和圍棋游戲的系統(tǒng),與一年后該系統(tǒng)的前身AlphaGoZero的改進(jìn)版本相匹配,其計(jì)算量減少了8倍。

“用于深度學(xué)習(xí)模型的計(jì)算能力的爆發(fā)已經(jīng)結(jié)束了“人工智能冬天”,并為各種任務(wù)的計(jì)算機(jī)性能樹立了新的基準(zhǔn)。但是,深度學(xué)習(xí)對計(jì)算能力的巨大需求限制了它可以以目前的形式改善性能的程度,特別是在硬件性能的改善步伐緩慢的時(shí)代?!毖芯咳藛T寫道。 “這些計(jì)算限制的可能影響迫使機(jī)器學(xué)習(xí)轉(zhuǎn)向比深度學(xué)習(xí)更高效的技術(shù)?!?/span>




聯(lián)系我們



寬泛科技專注為人工智能、邊緣計(jì)算、影視后期、動(dòng)漫設(shè)計(jì)、商務(wù)應(yīng)用等領(lǐng)域,

提供基于人臉識(shí)別、深度學(xué)習(xí)、視覺計(jì)算、VR/AR/MR、桌面虛擬化、

數(shù)據(jù)存儲(chǔ)及數(shù)據(jù)可視化、視訊會(huì)議等信息化解決方案及服務(wù)。

如果您有合作需求或?qū)氋F建議,歡迎來信。

郵箱:hezuo@kuanfans.com

合作熱線:(021) 5415 5559