科華數據 · 液冷技術(shù)

11月7日,在ChatGPT推出近一年后,美國人工智能公司OpenAI舉行了首屆開(kāi)發(fā)者大會(huì )。大會(huì )上,OpenAI的首席執行官宣布了GPT-4、ChatGPT的重磅更新:ChatGPT的周活用戶(hù)數達到1億人,已經(jīng)有200萬(wàn)開(kāi)發(fā)者正在使用OpenAI的API(應用程序接口),92%的財富500強公司正在使用OpenAI的產(chǎn)品搭建服務(wù)。



AI大模型飛速增長(cháng),帶來(lái)的是算力的高需求,人工智能訓練任務(wù)中使用的算力正呈著(zhù)指數級增長(cháng),GPU單顆芯片功耗逐漸增大,如NVIDIA 2023年Q1發(fā)布的HGX Grace Hopper Superchip Platform,其TDP高達1000W,以單臺機8卡計算,一臺服務(wù)器或將達到10KW左右,解決GPU散熱問(wèn)題迫在眉睫。

硬件算力的提升一直是人工智能快速發(fā)展的重要因素。如果按照現在A(yíng)I大模型的發(fā)展趨勢,以此為據進(jìn)行推算,就會(huì )發(fā)現一個(gè)棘手的問(wèn)題,我們要滿(mǎn)足超高算力需求,就需要用全新的系統以及技術(shù)來(lái)保障高算力行業(yè)的健康發(fā)展。

數據中心作為算力的承載者,體積愈發(fā)龐大,大型數據中心成為未來(lái)的發(fā)展趨勢,伴隨著(zhù)大型數據中心增長(cháng),新技術(shù)的涌現也尤為火熱。液冷數據中心面對高算力需求,從容不迫,帶來(lái)最佳解決方案,讓類(lèi)似AI大模型此類(lèi)高算力行業(yè)得以施展拳腳。

液冷作為一種高效的冷卻技術(shù),可以解決高功率、高熱流密度、高計算密度的芯片和系統散熱問(wèn)題。液冷技術(shù)利用液體高比熱容/蒸發(fā)潛熱優(yōu)勢,實(shí)現對發(fā)熱元器件精準散熱,完美解決高功率密度機柜散熱問(wèn)題,經(jīng)過(guò)幾十年發(fā)展,已被廣泛認為是解決散熱挑戰最行之有效的方法。

科華液冷技術(shù)利用液冷散熱優(yōu)勢,推出了液冷數據中心全生命周期服務(wù),其液冷解決方案幫助數據中心高密服務(wù)器解決散熱問(wèn)題,冷板式和浸沒(méi)式液冷解決方案,通過(guò)液冷機柜、內部循環(huán)模組、換熱冷卻、內外控制等設備,直接為服務(wù)器關(guān)鍵發(fā)熱元件進(jìn)行熱交換。



科華板式液冷微模塊數據中心可實(shí)現15kW/柜以上的高功率密度散熱需求,各功能部件預安裝及預調試,進(jìn)場(chǎng)即用,交付速度提升50%,模塊化設計,可靈活配置,滿(mǎn)足快速擴容需要,實(shí)時(shí)監測相關(guān)動(dòng)環(huán)設備,各設備關(guān)鍵信息一目了然。

液冷技術(shù)大幅提升了算力輸出能力,使服務(wù)器可以在相對的低溫環(huán)境中滿(mǎn)載運行。避免設備局部熱點(diǎn)的同時(shí),甚至可以超頻運行,其可靠性得到大幅提升,由此高算力的輸出,有了穩定可靠的保障。

算力作為核心生產(chǎn)力,推動(dòng)著(zhù)各行各業(yè)的發(fā)展,如何讓算力綠色穩定,支持高算力行業(yè)快速發(fā)展,也是科華人一直在思考的問(wèn)題,液冷技術(shù)作為數據中心高新技術(shù),解決數據中心散熱痛點(diǎn),科華數據將繼續利用其數據中心全生命周期服務(wù)優(yōu)勢,強力打造大型液冷數據中心項目落地,推動(dòng)高算力行業(yè)綠色健康發(fā)展。