隨著生成式AI爆紅,PC產業三巨頭英特爾、超微與微軟,都將支援生成式AI作為下一代產品的主要賣點,並希望藉此帶動新一波PC換機潮。
軟體生態分化 開發者支援更形關鍵
但也因為每家處理器業者所採用的硬體架構不同,加上AI對硬體效能的需求本來就遠高於典型的PC應用軟體,導致軟體開發者有必要針對不同的硬體平台推出對應的最佳化版本。
對軟體開發者而言,如何對不同的硬體平台最佳化,一直都是存在的問題。只是對效能需求較低的應用,最佳化的需求不一定很迫切。但如果對硬體效能需求很高的應用,最佳化的程度就會對使用者體驗造成很大的影響。遊戲軟體就是一個很典型的例子,有些遊戲是針對NVIDIA的GPU做最佳化,有些則是針對超微的GPU做最佳化,這導致同一款遊戲在NVIDIA跟超微的同級顯卡上,往往會有明顯的效能差異。
AI應用也是如此。例如開源生成式AI繪圖軟體Stable Diffusion,目前就有兩種不同的分歧版本,各自針對NVIDIA與超微的GPU最佳化。要在英特爾的Arc GPU上執行Stable Diffusion,則需透過OpenVINO並搭配Hugging Face上針對英特爾最佳化的模型。
因此,對開發社群的支援程度,將是處理器業者在AI領域是否有競爭力的另一個重要關鍵。NVIDIA之所以能在AI領域獨領風騷,靠的不只是GPU的硬體性能,還有一整套對應的開發工具,以及對開發者社群的支援。英特爾跟超微也深知開發工具跟開發社群生態系建購的重要性,並持續進行相關投資,試圖急起直追。
英特爾網路暨邊緣運算事業群平台應用協理王宗業表示,英特爾深知AI應用軟體能否跨硬體平台布署,是AI應用能否真正做到無處不在的關鍵。畢竟,在AI應用從開發到布署的過程中,本來就會使用不同的硬體平台。為協助AI應用開發者更輕鬆地完成跨平台布署,英特爾在幾年前就已推出OpenVINO跟OneAPI,並且將應用支援的範圍從最初的機器視覺,拓展到大語言模型(LLM)跟生成式AI。
在最新的OpenVINO 2023.2版本中,英特爾進一步強化了使用者體驗,並且對LLM及生成式AI提供更完善的支援。在使用者體驗部分,PyTorch模型轉換更容易,並增加Hugging Face生態系統中的可用性和OpenVINO 在C/C++開發者使用的套件管理器。在生成式AI和LLM部分,則是以提升效能為主,例如讓軟體可以調用Core Ultra提供的硬體加速資源,支援INT8模型壓縮、啟用FP16模型格式和整合額外加速庫,來提高LLM的性能和降低延遲。
透過這兩項英特爾提供的技術,原本為其他硬體架構撰寫的軟體,只需要少量修改,就能在英特爾的硬體平台上獲得最佳化;反之,原本為英特爾平台撰寫的軟體,也可以布署到安謀(Arm)、蘋果(Apple)的平台上。這就是英特爾近年來一直強調的AI連續性(AI Continuum,圖2)。
隨著AI應用的類型日益增加,OpenVINO的功能擴充以及開發社群的茁壯,OpenVINO的使用者數量,正在以指數成長。截至目前為止,OpenVINO在Python社群平台上的下載次數,已超過300萬次。
針對AI應用的布署,超微則是推出了Ryzen AI 1.0軟體工具。蘇姿丰表示,日後應用開發者可以從Hugging Face下載已經預先用Pytorch或TensorFlow訓練好的模型,透過Ryzen AI 1.0工具進行量化壓縮,然後在ONNX Runtime上布署。如此一來,搭載Ryzen AI的筆記型電腦就能執行這些AI應用,大幅縮減開發時間。
PC生態系龍頭火力全開 AI PC來勢洶洶(2)