浪潮信息趙帥:開放計(jì)算創(chuàng)新 應(yīng)對Scaling Law挑戰(zhàn)

2024-08-19 11:34 來源:美通社 作者:電源網(wǎng)

北京2024年8月15日 /美通社/ -- 日前在2024開放計(jì)算中國峰會上,浪潮信息服務(wù)器產(chǎn)品線總經(jīng)理趙帥表示,智能時(shí)代,開源模型和開放計(jì)算激發(fā)了人工智能產(chǎn)業(yè)生態(tài)的創(chuàng)新活力,面對大模型Scaling Law帶來的AI基礎(chǔ)設(shè)施Scale up和Scale out的挑戰(zhàn),數(shù)據(jù)中心需要以開放創(chuàng)新加速算力系統(tǒng)、管理和基礎(chǔ)設(shè)施的全向Scale進(jìn)程,推動AI產(chǎn)業(yè)的創(chuàng)新發(fā)展。


開源開放推動人工智能創(chuàng)新與算力生態(tài)的全面發(fā)展

生成式人工智能的飛躍式進(jìn)步正在加速智能時(shí)代的到來,數(shù)據(jù)中心基礎(chǔ)設(shè)施面臨全方位創(chuàng)新,將越來越依賴更加廣泛的全球化開放協(xié)作,加速AI技術(shù)創(chuàng)新與應(yīng)用,共同構(gòu)建一個(gè)充滿創(chuàng)新活力的智能世界,而激發(fā)人工智能創(chuàng)新活力,開源開放是核心和源泉

模型開源激發(fā)人工智能創(chuàng)新活力。隨著開源大模型能力的不斷增強(qiáng)和開源生態(tài)的持續(xù)壯大,帶動模型、應(yīng)用到產(chǎn)業(yè)的全面發(fā)展,三分之二的基礎(chǔ)模型選擇開源,超過80%以上的AI項(xiàng)目使用開源框架進(jìn)行開發(fā),開源模型的下載量突破3億次,并衍生出超過 3萬個(gè)新模型,Llama 3.1、通義千問、源2.0等開源大模型成為人工智能創(chuàng)新的驅(qū)動力。

硬件開放完善人工智能算力生態(tài)。人工智能帶來指數(shù)級增長的算力需求,全球已有上百家公司投入新型AI芯片的研發(fā)與設(shè)計(jì),百花齊放的算力芯片需要統(tǒng)一的算力平臺才能快速推向市場,實(shí)現(xiàn)落地。開放加速規(guī)范OAM的出現(xiàn)大大加速多元算力芯片的適配兼容過程,大幅降低資源投入,使算力部署和迭代提速,支撐上層大模型和AIGC應(yīng)用的快速迭代成熟。目前,90% 高端AI芯片基于OAM規(guī)范設(shè)計(jì),去年浪潮信息剛剛發(fā)布的基于OAM規(guī)范的開放加速計(jì)算平臺NF5698G7與多款主流AI加速芯片適配兼容,基于OAM的智算產(chǎn)業(yè)生態(tài)圈日趨完善。

我們可以看到,AI時(shí)代,算力正在呈現(xiàn)出多元化的發(fā)展趨勢。為應(yīng)對AIGC、云計(jì)算、大數(shù)據(jù)等應(yīng)用復(fù)雜且不斷變化的計(jì)算需求,不僅僅是GPU,CPU、FPGA、ASIC等芯片也在朝著更加多樣化和專用化的方向發(fā)展。而且無論是手機(jī)、電腦、邊緣設(shè)備、CPU通用服務(wù)器、加速服務(wù)器都具有了AI計(jì)算的能力,可以說一切計(jì)算皆AI,AI算力已經(jīng)深入到千行百業(yè),滲透進(jìn)每一個(gè)計(jì)算設(shè)備里。面向人工智能的算力范式不斷革新,基于CPU的通用服務(wù)器不僅要承載大數(shù)據(jù)、關(guān)鍵計(jì)算、科學(xué)計(jì)算外,也要承擔(dān)AI應(yīng)用的重要任務(wù),這也是CPU通用服務(wù)器的重大機(jī)遇。

但隨著應(yīng)用范式的多樣化,目前x86、ARM、RISC-V等不同架構(gòu)的CPU處理器百花齊放,僅中國,就有10多種CPU處理器,不同CPU協(xié)議標(biāo)準(zhǔn)不統(tǒng)一,同時(shí)為了更好的適合AI推理高并行的計(jì)算特點(diǎn),CPU總線互聯(lián)帶寬、內(nèi)存帶寬及容量也需要特別優(yōu)化,使得系統(tǒng)功耗、總線速率、電流密度不斷提升……多種因素疊加之下,硬件開發(fā)、固件適配、部件測試資源等時(shí)間激增,給算力系統(tǒng)設(shè)計(jì)帶來巨大挑戰(zhàn)。

為了縮短從芯片到算力系統(tǒng)的轉(zhuǎn)化時(shí)間,給用戶提供更快、更好的算力支撐,CPU端也亟需構(gòu)建智算時(shí)代的CPU統(tǒng)一底座, 能夠兼容不同芯片廠商、多代產(chǎn)品。2024開放計(jì)算中國峰會上,開放算力模組(OCM)規(guī)范正式啟動,首批成員包括中國電子標(biāo)準(zhǔn)院、百度、小紅書、浪潮信息、聯(lián)想、超聚變、英特爾、AMD等機(jī)構(gòu)和企業(yè)。


全新的開放算力模組OCM規(guī)范,旨在建立基于處理器的標(biāo)準(zhǔn)化算力模組單元,通過統(tǒng)一不同處理器算力單元對外高速互連、管理協(xié)議、供電接口等,實(shí)現(xiàn)服務(wù)器主板平臺的深度解耦和模塊化設(shè)計(jì),兼容不同架構(gòu)的多代處理器芯片,方便客戶根據(jù)人工智能、云計(jì)算、大數(shù)據(jù)等多樣化應(yīng)用場景,靈活、快速匹配最適合的算力平臺,推動算力產(chǎn)業(yè)高質(zhì)量快速發(fā)展。

OCM規(guī)范是國內(nèi)首個(gè)服務(wù)器計(jì)算模組設(shè)計(jì)規(guī)范,產(chǎn)業(yè)界上下游伙伴將基于OCM規(guī)范,共同建立標(biāo)準(zhǔn)化的算力模組單元,構(gòu)建開放合作、融合創(chuàng)新的產(chǎn)業(yè)生態(tài),為用戶提供更多通用性強(qiáng)、綠色高效、安全可靠的算力選擇。

以開放創(chuàng)新的全向Scale應(yīng)對大模型第一性原理

算力、算法和數(shù)據(jù)是推動人工智能發(fā)展的三駕馬車,自Transformer架構(gòu)出現(xiàn)以來,大模型性能與其參數(shù)量、計(jì)算當(dāng)量、數(shù)據(jù)量的協(xié)同作用尤為顯著,業(yè)界稱之為大語言模型的第一性原理——Scaling Law。

智算時(shí)代,需要用開放的理念來加速算力系統(tǒng)全向Scale,從而應(yīng)對大模型的Scaling Law。隨著大模型能力的持續(xù)進(jìn)化,算法規(guī)模和復(fù)雜性不斷增加、數(shù)據(jù)量越來越大,算力需求也在不斷攀升,需要同時(shí)應(yīng)對單系統(tǒng)性能提升Scale up與多系統(tǒng)大規(guī)模擴(kuò)展Scale out兩個(gè)方向擴(kuò)展的挑戰(zhàn),對數(shù)據(jù)中心基礎(chǔ)設(shè)施、算力管理、迭代升級等都提出了更高要求。


在算力方面,智算中心需要同時(shí)應(yīng)對兩個(gè)方向的擴(kuò)展,分別是強(qiáng)算力支持、一機(jī)多芯、多元多模的單機(jī)系統(tǒng)Scale up要求和大規(guī)模AI組網(wǎng)、高帶寬、資源池化的大規(guī)模化擴(kuò)展Scale out要求,以開放加速模組和開放網(wǎng)絡(luò)實(shí)現(xiàn)算力的Scale。UBB2.0開放標(biāo)準(zhǔn)支持更高算力規(guī)格的加速卡、可以實(shí)現(xiàn)更大的OAM domain互聯(lián),未來可以支持8000+ 張加速卡Scale up,突破大模型All to All通信過程中的互聯(lián)瓶頸。同時(shí),大模型的發(fā)展需要更大規(guī)模的算力系統(tǒng),浪潮信息開放網(wǎng)絡(luò)交換機(jī)可實(shí)現(xiàn)16000+個(gè)計(jì)算節(jié)點(diǎn)10萬+加速卡的Scale out組網(wǎng),滿足加速卡之間的互聯(lián)通信需求,帶寬利用率高達(dá)95%+。

在管理方面,需要解決跨平臺適配、模塊化架構(gòu)、快速迭代的Scale要求,以開放的固件解決方案實(shí)現(xiàn)了管理的Scale。當(dāng)前,異構(gòu)算力多元分化,異步迭代,管理接口規(guī)范各不相同,導(dǎo)致固件平臺分支版本龐大,相互割裂,無法歸一,單一企業(yè)資源在維護(hù)和適配如此眾多的分支版本方面捉襟見肘。為解決一系列管理挑戰(zhàn),需要依托于開源社區(qū)的開源固件平臺,構(gòu)建原生解耦架構(gòu)提升可擴(kuò)展性,建立統(tǒng)一標(biāo)準(zhǔn)的接口規(guī)范,支持用戶對于自主模塊進(jìn)行定制化,實(shí)現(xiàn)標(biāo)準(zhǔn)接口規(guī)范下的異步、自主定制迭代,以滿足智算時(shí)代的算力迭代需求。

在基礎(chǔ)設(shè)施方面,數(shù)據(jù)中心面臨智能算力擴(kuò)展的兩大Scale挑戰(zhàn):一是GPU、CPU算力提升,單芯片單卡功耗急劇增加,單機(jī)柜在供電和制冷上面臨著Scale up支撐挑戰(zhàn);同時(shí),Scaling Law驅(qū)動GPU規(guī)模無限膨脹,達(dá)到萬卡、十萬卡級別,帶來了數(shù)據(jù)中心層級Scale out的支撐挑戰(zhàn),需要開放標(biāo)準(zhǔn)和開放生態(tài)將實(shí)現(xiàn)基礎(chǔ)實(shí)施的Scale,滿足快速建設(shè)、高算力/高能耗支撐要求。采用開放標(biāo)準(zhǔn)、開放生態(tài)構(gòu)建的數(shù)據(jù)中心基礎(chǔ)設(shè)施,能更好地匹配智算時(shí)代多元、異構(gòu)算力的擴(kuò)展和迭代速度,進(jìn)而支撐上層智能應(yīng)用的進(jìn)一步普及。以浪潮信息為例,基于開放標(biāo)準(zhǔn)推出的液冷冷板組件,支撐單機(jī)系統(tǒng)內(nèi)GPU和CPU核心算力原件Scale up擴(kuò)展;推出模塊化、標(biāo)準(zhǔn)接口的120kw機(jī)柜,兼容液冷、風(fēng)冷場景,支撐柜內(nèi)更大的部署需求;推出基于開放標(biāo)準(zhǔn)的預(yù)制化集裝箱數(shù)據(jù)中心,大幅壓縮建設(shè)周期,其擴(kuò)展性很好的滿足了AI算力系統(tǒng)的Scale需要。

開放計(jì)算為數(shù)據(jù)中心的全向Scale,提供了一個(gè)可以迅速傳遞到整個(gè)產(chǎn)業(yè)鏈的"通道"。 目前,開放加速模組和開放網(wǎng)絡(luò)實(shí)現(xiàn)了算力的Scale,開放固件解決方案實(shí)現(xiàn)了管理的Scale,開放標(biāo)準(zhǔn)和開放生態(tài)實(shí)現(xiàn)了基礎(chǔ)設(shè)施的Scale。開放計(jì)算對于智算時(shí)代至關(guān)重要,需要用開放應(yīng)對多元算力,用開放促進(jìn)算力的Scale,基于開放創(chuàng)新構(gòu)建的全向Scale能力將會成為未來AI基礎(chǔ)設(shè)施的核心驅(qū)動力,加速智算時(shí)代的創(chuàng)新,加速人工智能的前行。

浪潮信息 趙帥 開放計(jì)算 Scaling Law

一周熱門