啊灬啊灬啊灬快灬高潮了听书,XXXX高潮大喷水XXXX,男人添女人下部高潮全视频,少妇被躁爽到高潮,小柔在教室轮流澡到高潮视频,被黑人伦流澡到高潮Hnp动漫

Guo Yiqun: Reflections and Practices of Alibaba cloud Liquid Cooling Data Center

4月21日上午,由中國通信工業(yè)協(xié)會(huì)數(shù)據(jù)中心委員會(huì)指導(dǎo),中國IDC圈與世紀(jì)互聯(lián)等共同主辦,以“同頻共振”為主題的“2021年中國IDC行業(yè)Discovery大會(huì)”在北京盛大開幕?,F(xiàn)場匯集了數(shù)百名來自數(shù)據(jù)中心上下游產(chǎn)業(yè)的專家、學(xué)者以及從業(yè)人士,共同探討、分享數(shù)據(jù)中心的發(fā)展及未來。大會(huì)同期在線上多個(gè)渠道開通了現(xiàn)場直播,共有數(shù)十萬觀眾觀看了本次大會(huì)。


會(huì)上,阿里云智能基礎(chǔ)設(shè)施資深專家郭懿群向與會(huì)者分享了《阿里云液冷數(shù)據(jù)中心的思考與實(shí)踐》。


郭懿群_副本.jpg


郭懿群:尊敬的吳部長,尊敬的黃總,陳總大家好,我來自于阿里云技術(shù)設(shè)施,今天帶來阿里云在液冷數(shù)據(jù)中心領(lǐng)域的思考以及實(shí)踐。


今天的分享分為以下五個(gè)方面,第一關(guān)于節(jié)能減排,能耗方面的國家政策解讀;第二關(guān)于未來算力增長趨勢的介紹;第三政策技術(shù)發(fā)展阿里是如何應(yīng)對(duì)這些挑戰(zhàn)的;第四采用液冷的解決方案帶來的實(shí)際技術(shù)或者社會(huì)效應(yīng)的價(jià)值;第五是關(guān)于針對(duì)液冷數(shù)據(jù)中心方面的未來展望。


政策解讀方面,2020年的時(shí)候,習(xí)主席提出中國在二氧化碳排放,力爭在2030年達(dá)到峰值,在2060年達(dá)到碳中和的目標(biāo)。在2021年2月份,國務(wù)院也頒發(fā)了相關(guān)的指導(dǎo)意見,加快信息服務(wù)業(yè)綠色轉(zhuǎn)型,做好大型數(shù)據(jù)中心綠色建設(shè)和改造。


隨著我國2035年規(guī)劃發(fā)布和2030年碳達(dá)峰和2060年碳中和宏偉目標(biāo)的設(shè)定,在這樣一個(gè)指引下,實(shí)際上我們目前對(duì)于數(shù)據(jù)中心來講提出了更高的挑戰(zhàn),在國家的政策有力的引導(dǎo)之下,在地方政府陸陸續(xù)續(xù)這幾年推出了數(shù)據(jù)中心領(lǐng)域的政策,引導(dǎo)數(shù)據(jù)中心的有序發(fā)展。


上海于2019年1月份明確提出來新建的數(shù)據(jù)中心PUE需要小于1.3,深圳也在2019年4月份提出采用綠色先進(jìn)數(shù)據(jù)中心的能效,北京2021年也提出了新建、改建數(shù)據(jù)中心PUE要小于1.3的目標(biāo)。


我們可以看到ODCC中國數(shù)據(jù)中心大平臺(tái)最新發(fā)布的全國在用的數(shù)據(jù)中心,大型、超大型數(shù)據(jù)中心實(shí)測熱力圖。全國在不同區(qū)域,不同自然條件下,對(duì)應(yīng)整個(gè)PUE的分布不太均衡,差異比較巨大。我們一直在想,有沒有可能我們尋找到一種技術(shù),可以具有一定的普適性,不同的地域、氣象條件下實(shí)現(xiàn)比較極致的PUE,這是我們想達(dá)成目標(biāo)。


上述介紹了一下政策方面的趨勢,后面再介紹一下關(guān)于技術(shù)方面的趨勢。分為兩個(gè)方面,眾所周知,在摩爾定律不斷放緩之際,我們對(duì)高算力的追求還是不斷呈現(xiàn)的,達(dá)成高算力的目標(biāo),一個(gè)是整個(gè)方向數(shù)據(jù)中心的能力還有芯片的能力,這就牽扯到機(jī)柜密度的增加。在通用計(jì)算領(lǐng)域,近幾年從200多瓦CPU功耗,未來可能飆升到400多瓦,在GPU通用計(jì)算領(lǐng)域,可能會(huì)從當(dāng)前400多瓦飆升到800多瓦,芯片能力功耗在不斷增加,服務(wù)器功耗和機(jī)柜功耗,未來可能會(huì)飆升到40千瓦或者更高的密度。


我們可以看到阿里云針對(duì)不同的數(shù)據(jù)中心散熱解決方案,進(jìn)行了非常深入的研究,針對(duì)不同的功率密度我們一有不同的解決方案去應(yīng)對(duì)不同的場景。針對(duì)上述的一些挑戰(zhàn),技術(shù)和政策上的挑戰(zhàn),阿里云經(jīng)過若干年的探索之后,也是找到了目前看起來比較能夠解決當(dāng)前問題的一個(gè)解決方案,就是單相浸沒式液冷的解決方案。風(fēng)冷傳統(tǒng)的解決方案對(duì)比液冷的主要差異,實(shí)際上風(fēng)冷會(huì)有冷塔和冷機(jī)、循環(huán)系統(tǒng),末端空調(diào)對(duì)IT設(shè)備的散熱,但是如果單相浸沒式液冷,我們可以保留冷塔,但是在數(shù)據(jù)中心可以去除冷機(jī),相應(yīng)的整體系統(tǒng)架構(gòu)會(huì)更簡約,整體的運(yùn)營效率也會(huì)更高,這是在IDC這一塊的變化。交換機(jī)這塊的變化,可能會(huì)去除掉風(fēng)扇這樣的設(shè)備,整體上設(shè)計(jì)集成度會(huì)更加高。


阿里云在浸沒液冷數(shù)據(jù)中心會(huì)分計(jì)算子系統(tǒng)、網(wǎng)絡(luò)子系統(tǒng)、存儲(chǔ)子系統(tǒng),還有IDC的散熱子系統(tǒng),監(jiān)控子系統(tǒng),這是整體模塊的組成。


阿里在數(shù)據(jù)中心的發(fā)展可以分為四個(gè)大的階段,我們從2015年開始就投入相關(guān)的研究在液冷數(shù)據(jù)中心的基礎(chǔ)研究,2016年首次發(fā)布了液冷的浸沒液冷系統(tǒng),2017年也是完成了集裝箱式浸沒液冷系統(tǒng)的發(fā)布,2018年液冷發(fā)展進(jìn)入了比較快速的發(fā)展階段,從原來的情況進(jìn)入到整體規(guī)?;瘜?shí)際部署落地的階段。


兩個(gè)主要的案例,2018年的時(shí)候,在張北,阿里自建數(shù)據(jù)中心完成了第一個(gè)液冷數(shù)據(jù)中心的建設(shè),它的規(guī)??梢赃_(dá)到兩千多個(gè)服務(wù)器,支持電商和大數(shù)據(jù)實(shí)際的生產(chǎn)服務(wù),支撐后續(xù)“雙十一”的業(yè)務(wù)發(fā)展。


第二個(gè)重要的里程碑是我們?nèi)ツ暝谡憬屎妥越〝?shù)據(jù)中心,完成第一棟全液冷樓的建造,當(dāng)年整個(gè)液冷數(shù)據(jù)中心也是獲得了ODCC綠色網(wǎng)格共同認(rèn)證的5A級(jí)的認(rèn)證。


講到液冷技術(shù)帶來的一些價(jià)值,可以說是分技術(shù)價(jià)值和社會(huì)價(jià)值兩部分。技術(shù)價(jià)值這一塊,我們看到最大的價(jià)值打破了風(fēng)冷對(duì)于機(jī)柜密度的上限,液冷可以非常輕松的做到100千瓦單機(jī)柜。另外系統(tǒng)故障率的下降是非常明顯的,我們經(jīng)過張北的數(shù)據(jù)中心長期的監(jiān)控、對(duì)比,同期部署風(fēng)冷數(shù)據(jù)中心,可以發(fā)現(xiàn)在IT部件的故障率上有50%以上的顯著故障率下降。


另外在整個(gè)極致的PUE,大家可能都聽說過,液冷PUE可以做到1.1或者1.1以下的極致實(shí)現(xiàn)。另外因?yàn)橐豪鋵?duì)外界的自然條件的依賴相對(duì)比較少,所以它可以非常輕松的是現(xiàn)在全球任何氣象區(qū)域的靈活部署,同時(shí)獲得非常極致的PUE的部署。


這邊在用的大型數(shù)據(jù)中心PUE要達(dá)到1.55左右,值還是比較高的,整體能耗也是相對(duì)比較高的,如果我們未來找到比較好的普適性的解決方案,對(duì)于整個(gè)社會(huì)在數(shù)據(jù)中心能耗上的節(jié)能減排實(shí)際上是非常有重要意義的。


再回到液冷數(shù)據(jù)中心我們看到的場景,在傳統(tǒng)互聯(lián)網(wǎng)行業(yè),在高性能計(jì)算、人工智能、大數(shù)據(jù)這幾個(gè)領(lǐng)域是比較適合我們未來浸沒液冷解決方案的。


展望未來,我們也相信阿里云單相浸沒液冷解決方案可以支撐我們經(jīng)濟(jì)體本身發(fā)展的一個(gè)比較好的解決方案之一,我們也希望更多的合作伙伴能夠和我們一起并肩前行,共建整個(gè)液冷生態(tài),踐行綠色數(shù)據(jù)中心發(fā)展之路。


我們基于這樣一個(gè)理念,在2020年1月6日我們聯(lián)合ODCC進(jìn)行了阿里云浸沒液冷數(shù)據(jù)中心規(guī)范的開源。


未來大家可以看到,創(chuàng)新一直是阿里巴巴與生俱來的基因,我們?cè)跀?shù)據(jù)中心領(lǐng)域也在不斷的探索一些新的技術(shù),浸沒液冷實(shí)際上在這個(gè)領(lǐng)域是一個(gè)代表,我們還有很多其他的領(lǐng)域。我們希望代表未來先進(jìn)生產(chǎn)力的解決方案,通過去年開源的方式與全球共享,也在積極考慮未來我們整體和外部客戶的合作,把這樣的技術(shù)更好的賦能給外部客戶,希望我們共建生態(tài),很好的促進(jìn)綠色數(shù)據(jù)中心的壯大發(fā)展,我的演講到這里,謝謝各位。


返回
The World’s Most Influential Cyberspace Infrastructure Service Provider
台中县| 富平县| 张北县| 开原市| 克什克腾旗| 犍为县| 天水市| 凤山县| 平昌县| 龙门县| 舟曲县| 泾阳县| 施甸县| 康保县| 新邵县| 苗栗市| 农安县| 桂东县| 读书| 太和县| 金塔县| 邹城市| 肇东市| 巴楚县| 咸宁市| 泽库县| 浑源县| 兴山县| 昌吉市| 高陵县| 奇台县| 淮阳县| 乐都县| 松阳县| 蒙城县| 宜兰县| 资阳市| 五大连池市| 贡嘎县| 锦州市| 嵊泗县|