Supermicro擴大製造產能 強化液冷技術推動NVIDIA Vera Rubin平台部署

Supermicro透過其資料中心建構組件解決方案(Data Center Building Block Solutions,DCBBS)、先進的直接液冷(DLC)技術,以及在美國的內部設計與製造產能,加速新一代液冷AI基礎設施的部署時程。 Supermicro宣布擴大製造產能、強化液冷技術,並與NVIDIA展開合作,推動NVIDIA...
2026 年 01 月 06 日

Supermicro發表AI伺服器新品 搭載Instinct MI350系列GPU

美超微(Supermicro)宣布推出採用全新AMD Instinct MI350系列GPU的液冷與氣冷GPU解決方案。此解決方案透過最佳化設計,提供空前的效能,以及最大化的擴充性能和效率。Supermicro...
2025 年 06 月 18 日

美超微AI產品線升級 支援最新款NVIDIA GPU

美超微(Supermicro)宣布,將推出一系列工作負載最佳化GPU伺服器和工作站,可支援全新NVIDIA RTX PRO 6000 Blackwell伺服器版GPU。Supermicro具廣泛機型的伺服器系列專為NVIDIA...
2025 年 03 月 26 日

Ansys攜手Supermicro/NVIDIA將模擬速度提升1,600倍

Ansys正與Supermicro和NVIDIA合作,提供統包式硬體,為Ansys多物理模擬解決方案提供加速。利用硬體及軟體的組合,Ansys客戶能夠以達1,600倍的速度解決更大、更複雜的模型。在Supermicro及NVIDIA的技術執行時,Ansys解決方案可縮短上市時間,並推動針對各種應用進行更強大的設計探索,包括汽車碰撞測試、外部空氣動力學、航空航太燃氣渦輪機引擎和5G/6G天線和生物製藥開發。 要充分利用多物理模擬,需要將不同類型的物理求解器與一系列硬體選擇整合,每種都提供獨特的效能優勢。然而,為多物理模擬調整和設定正確的硬體是一項複雜的工作,可能會顯著影響效能、成本和生產力。統包式自訂硬體解決方案,同時具有中央處理器(CPU),圖形處理器(GPU),互連和冷卻模組,讓工程師能夠更有效率地執行預測準確的模擬。 Ansys和Supermicro之間的協同測試中發現複製在一個NVIDIA...
2024 年 07 月 25 日

全面導入液冷技術 Supermicro讓生成式AI既酷又永續

GPU與人工智慧(AI)伺服器的市場需求,隨著生成式AI應用的發酵而快速成長。資料中心面對大量AI運算需求,需要克服耗電與散熱兩大挑戰。Supermicro總裁暨執行長梁見後表示,直接液冷(DLC)系統相較氣冷系統,可以提升資料中心的散熱效率與能源使用效益。隨著散熱系統的用電不斷減少,採用液冷的資料中心營運成本成可大幅下降。過去DLC常見的挑戰在於可靠度不足,並且難以維護。而目前Supermicro解決方案經過NVIDIA...
2024 年 06 月 06 日

軟硬整合釋放AI潛能 資料中心效能須升級

過去這一年來,由於生成式預訓練模型(GPT)和其他大型語言模型的推出,AI已經漸漸成為科技應用的主流趨勢。AI迅速發展正為全球各行各業帶來革命性的改變,許多企業組織希望將AI整合進其資料中心,以進一步提升工作效率。 然而,儘管企業組織整合AI聽起來容易,然而許多人仍未了解將AI整合進資料中心所需面臨的挑戰。隨著整合AI的需求不斷提高,2024年的企業組織正面臨著各種複雜的挑戰,包含從現有基礎設施的相容性問題,到整合專為AI設計的硬體等。 整合AI的相容性挑戰 企業組織整合AI時面臨的主要挑戰之一,就是需確保新的AI技術與現有的資料中心基礎硬體設施相容。舊系統很可能並沒有能應對AI演算法的運算能力,導致效能瓶頸與相容性問題。為了克服這種障礙,企業組織需仔細評估現有基礎設施的效能,並進行必要的升級以應對AI工作負載。 造成這些複雜挑戰的一個最主要因素是TensorFlow和PyTorch等框架,以及針對AI開發和最佳化特定AI加速硬體的函式庫不斷推陳出新。這些框架經常性釋出更新,以充分利用和最佳化新的硬體功能。而這種挑戰可能導致軟體需求和硬體功能之間的不相容,阻礙其運作達到最佳效能,也可能間接導致不穩定性,甚至使企業組織失去競爭力。 整合AI專用硬體 為了能採用符合產業標準的AI,資料中心基礎設施需要有能夠迅速處理大量資訊的設備。然而現階段,多數企業組織仍在使用無法應對AI工作負載的舊型設備。發展用於學習和開發(Learning...
2024 年 02 月 16 日

Supermicro提升機櫃級製造力達全球每月5,000個

Supermicro正擴展其人工智慧和高速運算供貨量和先進的液冷伺服器解決方案。Supermicro正藉由位於美國、台灣、荷蘭和馬來西亞的數個整合製造廠,擴大在全球的完整機櫃級供貨力。該公司正在積極考慮未來製造的擴展和地點,以滿足客戶對人工智慧和高速運算機櫃級解決方案產品組合不斷成長的需求。 Supermicro總裁暨執行長梁見後表示,憑藉全球布局藍圖,該公司現在能每月提供5,000個機架,以支援大量要求完全整合的液冷機架,且每機架最高達100千瓦的訂單。Supermicro預估,隨著CPU和GPU的運行溫度持續升高,最多將有20%的新資料中心採用液冷解決方案。Supermicro的機櫃級解決方案,由於全球不斷成長的人工智慧資料中心發展,而有極高的需求。在設計和執行過程的初期,應考慮完整的機櫃級和液冷伺服器解決方案,這將有助縮短供貨時間,以滿足對人工智慧和超大規模資料中心的迫切需求。 Supermicro維持著高度「Golden...
2023 年 11 月 15 日

Supermicro基於AMD EPYC 8004系列處理器推出邊緣平台

Supermicro宣布推出基於AMD的Supermicro H13代際WIO伺服器,該伺服器經過優化,採用全新AMD EPYC 8004系列處理器,可為邊緣和電信資料中心提供強大的效能和能效。 全新Supermicro...
2023 年 09 月 20 日

生成式AI算力需求無極限 HPC硬體彈性擴充應援

ChatGPT的橫空出世,再度帶動市場對於生成式AI與高效能運算(HPC)的關注。生成式AI運算大型語言模型的效能需求高,因此HPC成為助力生成式AI應用開枝散葉的關鍵之一,生成式AI也為HPC硬體帶來新一波市場動能。市場對於硬體的運算效能需求大幅成長,晶片與伺服器廠商便針對AI的運算需求推出高效能的硬體解決方案,以滿足市場對於加速AI運算與大量的平行運算需求。 技術進展促使生成式AI普及 促使生成式AI普及的原因,來自技術進展與市場需求。美超微(Supermicro)資深產品協理林振瑋(圖1)認為,HPC的技術進展,協助開發人員更有效率地訓練龐大且複雜的模型。同時,現有的大量、多樣的數據集,有助於開發人員訓練功能完善的大型模型,包含聊天機器人及其他對話式AI應用,並讓機器人的回覆內容更貼近真人回覆。從市場需求觀察,使用者對於個人化且互動自然的人機互動需求提升。加上現有的生成式AI服務在技術與平台的整合完善,有效降低使用者的使用門檻。 圖1 美超微資深產品協理林振瑋 運算效能需求爆發 從運算的角度分析,生成式AI帶起了新一波的HPC需求。英特爾(Intel)業務暨行銷事業群商用業務總監鄭智成(圖2)指出,目前的大型語言模型運算需求,無法只依賴一台伺服器,而需要伺服器群集,也就是HPC的形式才能滿足。HPC的節點從100逐漸成長到200個節點,未來仍會持續增加。過去的語言模型,僅具備語言辨識功能,規模較小,運算需求不會超過200個HPC節點的範圍。但是隨著語言模型發展至第二階段的語意理解,以及第三階段的文本生成,語言模型的規模大幅成長,大型語言模型便成為需要國家級,由大約一萬個節點組成的伺服器群集才能訓練的模型。 圖2 英特爾業務暨行銷事業群商用業務總監鄭智成 強化解方擴充性以提升效能彈性 即便多數的應用場景沒有國家級的運算資源,數千節點的HPC,仍可以滿足垂直領域應用所需的專用模型訓練。因此產業內整體的HPC運算需求不只上升,需要的運算效能也持續成長,供應商便需要盡可能提供彈性的租用或運算方案,以滿足市場需求。 廠商如Arm透過可擴充的HPC產品設計,來解決AI不斷成長的運算能力需求。Arm資深技術總監陳胎裕(圖3)提及,架構方面,透過高度可配置的設計,協助HPC產品根據工作負載的特定需求進行客製化設計。例如Arm可擴充向量延伸指令集(SVE)可根據廣泛應用,定製的向量處理功能。此外,確保HPC產品的效能擴充性,加上節能的設計架構,便能在降低產品功耗的同時,實現效能擴充的彈性。最後,面對單一系統中同時使用不同類型的處理器,包含CPU、GPU和專用加速器,採用異質運算可將每個任務分配給最合適的處理器,最大化運算效率。 圖3 Arm資深技術總監陳胎裕 從處理器廠商的角度,英特爾同時布局CPU、GPU與AI訓練加速器。鄭智成說明,目前的P-Core系列的CPU產品內建延伸指令集AMX,AI相關運算的效能可有效提升約十倍,也就是CPU除了可以執行AI推論,效能也足以訓練AI模型。同時,高效能CPU伺服器的功耗,大約是GPU伺服器的十分之一,因此若是AI運算選擇採用數個CPU伺服器,可以大幅降低電力消耗。 更高效的數據處理挑戰 陳胎裕分析,預期HPC和生成式AI將在醫療、金融、汽車和製造等眾多產業中,展現新的應用場景。例如,生成式AI可用於設計和優化新產品,而HPC可用於在虛擬環境中模擬和測試這些產品。技術方面,隨著生成式AI需要的數據量持續成長,需要快速、準確地處理和分析大量數據,因此市場對於高效能數據分析解決方案的需求將不斷增加。高效能方案也需要輔以新的硬體和軟體解決方案,以提供必要的效能和可擴充性。 而未來HPC社群最關心的挑戰之一,是HPC和AI硬體的發展將整合還是分流運行。陳胎裕認為,雖然HPC與AI的技術領域部分重疊,但也有差異之處,因此HPC...
2023 年 06 月 05 日

聰明部署邊緣運算 AI實現工業4.0高效能應用

工業4.0加速工業自動化的革新,提升了工廠的生產效率。然而這些優勢也伴隨著一定的技術挑戰。新技術雖然可精進產品品質、減少停機時間,但另一方面,從物聯網裝置、智慧機械及感測器端所蒐集的大量數據,都需要更多時間整理與分析,這也成為企業邁向工業4.0需面對的新課題。 另一項趨勢則是,運算方式正迅速從集中式的資料處理,如大型資料中心,往分散式運算發展。因應5G而衍生的新技術、新興經濟模式及消費者應用的需求,促使運算位置移動至距離資料生成位置更近的「邊緣」—此處的「邊緣」,指的可能是桌上型電腦、筆記型電腦、小型伺服器、感測器,或是不需仰賴集中式運算的應用程式或終端裝置。 根據Research...
2022 年 08 月 29 日

E1.S/E1.L/PCIe 5.0聯手 儲存效能衝破瓶頸

隨著資料量持續增加、邊緣裝置所收集的資料量也不斷成長,現今許多企業產生需將部分資料移至容量更大的雲端或企業級資料中心的需求,可見儲存已成為現代資料中心的基礎需求之一。
2022 年 03 月 31 日

高效能運算廢熱處理費思量 液冷式散熱力助資料中心PUE

隨著CPU和GPU的效能持續提升,處理器所產生的熱能也隨之增加,每瓦功耗可執行的運算效能提升,新一代伺服器搭載CPU與最新GPU的密度大幅成長,散熱需求也與日俱增。
2021 年 10 月 10 日