IC設計搶賺AI應用財 聯發科/群聯玩法大不同

作者: 黃繼寬
2024 年 12 月 31 日

在生成式AI時代,軟體的重要性更加凸顯。硬體業者紛紛在軟體開發上加碼,以提供客戶端到端的AI解決方案,甚至開始做起純軟體生意。這種大膽操作是否能成功建立起可持續的業務,還有待觀察。但這個現象也證明,軟體方案的加值,對硬體業者而言只會越來越重要。

硬體廠商有龐大的軟體開發團隊,已經是業界常態。許多IC設計公司內部的軟體開發團隊,規模始終在硬體開發團隊的數倍以上。且隨著生成式AI興起,客戶對端到端(End to End)方案的需求大增,使硬體業者必須進一步在軟體開發能力上加碼投資。同時,為了在企業內部導入生成式AI,提高員工生產力,公司的資訊團隊也必須投入更多資源。

然而,隨著軟體團隊規模持續擴張,對硬體公司而言,如果公司廣義的軟體團隊(內部IT應用與產品部門)一直在擴張,但公司依然只能靠賣硬體來創造收入,從公司營運的角度來看,未必是健康的。因此,如何把軟體投資變現,是許多企業主正在思考的問題。IC設計公司聯發科、群聯的玩法,或值得台灣其他硬體公司借鑑。

實現投資效益最大化 群聯大張旗鼓賣軟體

群聯董事長潘健成(圖1)就不諱言地指出,公司經營的目的就是要賺錢,有更多營收才能對股東交代,並且幫員工加薪,留住得來不易的人才。因此,如何極大化地利用研發成果,轉化為可以創造營收的產品,一直是企業經營者必須放在心上的議題。

圖1 群聯董事長潘健成表示,要協助中小企業導入生成式AI,端到端解決方案不可或缺。

 

在生成式AI興起後,許多想導入生成式AI應用的企業,都遇到部分應用不可以上雲,在本地端布署生成式AI應用,成本又太高的問題。要運行大語言模型(LLM),GPU本身的運算能力,以及GPU卡上搭載的記憶體容量,是兩個最重要的硬體規格。專為大語言模型訓練和推論而設計的伺服器GPU卡雖然有更大的記憶體,而且運算效能更好,但價格高昂且供應量有限;工作站或消費級GPU卡相對便宜且容易取得,但記憶體容量通常不足以訓練LLM,甚至連推論任務都不見得能執行,只能用小語言模型(SLM)或經過高度量化壓縮的LLM進行推論,而且效能較低。

以提供儲存方案為主要業務的群聯,看見現有產品的不足處,決定投入研發資源,打造可以幫GPU記憶體擴容的解決方案,也就是近期群聯強打的aiDAPTIV+。透過aiDAPTIV+,用戶即便只有工作站等級的硬體,也可以訓練Llama 70B等級的大語言模型,將導入生成式AI應用的成本從新台幣上千萬元壓低到數十萬至一百多萬元不等。對群聯而言,除了銷售專用的SSD,韌體授權業務也是一個新的收入來源。

但是,用SSD幫GPU的記憶體擴容,只是aiDAPTIV+的第一階段。在這個基礎上,群聯已進一步開發出針對企業應用需求設計的端對端解決方案。

潘健成分析,企業裡的每一個職能部門,比如研發、行銷、財會、人資,都可以因導入生成式AI應用而大幅提高生產力,但前提是企業本身要有應用開發的能力,否則就只能依賴外部供應商。因此,生成式AI若要在企業市場落地,特別是中小企業客戶,只提供記憶體擴容方案是不夠的。

事實上,群聯自己也是生成式AI的重度使用者,幾乎每個部門都已經導入生成式AI工具。而群聯的IT部門在打造自家應用的同時,也累積了大量實戰經驗,因此群聯有信心,可以將自家使用的工具轉化為銷售給客戶的產品。

舉例來說,知識管理(Knowledge Management, KM)是很常見的企業IT應用,而且幾乎所有部門都需要。但傳統KM工具大多是以資料庫查詢為核心發展出來的,使用不方便,而且要準確找到想要的資料,也需要一定的搜尋技巧。因此,很多企業內部雖然有KM工具,但同仁往往還是去找其他同事問問題,不僅效率低,而且也會占用其他同仁的時間。如果使用者可以用自然語言對聊天機器人下達需求,讓聊天機器人幫忙找資料,並搭配檢索增強生成技術(RAG),以更人性化的方式回答使用者的問題,KM工具的使用者體驗可以大幅提升,而且效率通常比找人問更好。

不過,魔鬼藏在細節裡。上面提到的應用方式需搭配專門的GPU伺服器,系統的回應速度才能符合使用者期待。沒有GPU伺服器的中小企業必須在回應方式上做出調整,否則應用沒辦法落地。使用者對聊天機器人的期待,是能在幾秒鐘內產生答覆。但公司若只有工作站級的硬體,當多人同時使用時,這是不太可能做到的。

群聯想到的方法是捨棄聊天機器人,改由email機器人來回答使用者的問題。對上班族來說,遇到問題時,寫email問同事再自然不過,而且使用者不會預期對方能在幾秒鐘內就回信。利用這個使用習慣跟心理預期,如果使用者改用email向機器人查詢,系統若能在幾分鐘內回信給使用者,就已經非常快了。

aiDAPTIV+的第二階段,就是以這類經過實戰驗證的端到端解決方案為主體。已經導入aiDAPTIV+的客戶只要向群聯取得對應授權,就可以使用這些開箱即用的生成式AI工具。

聯發科打造達哥平台 測試PaaS商業模式

與群聯主攻本地生成式AI應用布署不同,聯發科的達芬奇平台(達哥,圖2),則是一個匯集多種生成式AI應用的服務平台。也因為達哥的本質是一個應用平台,因此在達哥平台上,除了聯發科自己開發的各種端到端企業應用外,其他客戶也可以把自己開發的應用架在達哥平台上。這讓聯發科不僅能扮演雲端服務供應商(CSP)加值代理商的角色,同時也有機會從應用服務上獲得營收。

圖2 達芬奇平台架構

與aiDAPTIV+一樣,聯發科在達哥平台上提供的端到端應用,也都是經過聯發科內部實戰測試的應用。據了解,目前聯發科集團內99%以上的部門都已經導入達哥。因此,達哥平台推出後,很多企業與學校都對達哥平台展現出濃厚興趣,也有不少企業在情況許可的前提下,使用達哥平台。同時,達哥平台也可以為各種終端裝置提供AI智慧助理服務(圖3),這點又能扣回聯發科的核心業務–終端裝置,發揮以軟體服務為硬體加值的效果。

圖3 達哥平台可以對各種終端裝置提供智慧助理服務

 

不過,對於晶片銷售為主要業務的聯發科而言,跳過軟硬體綑綁銷售,直接變成平台服務供應商,是一次非常大膽的嘗試。聯發科是否對這個服務有承諾,願意長期投入資源,是客戶端心中的主要疑慮。有許多有意導入達哥的企業用戶表示,因為服務不是買斷的產品,因此公司在評估是否要採用達哥平台時,會特別關心達哥平台的未來發展路線圖,以及技術的延續性。

某家正在評估達哥平台的台灣傳產集團內部人士就指出,如果發展路線圖不明確,集團很難做出正式的採購決策,只能一直試用。目前該集團對達哥平台的表現相當滿意,但聯發科對達哥平台的未來有什麼規劃,某些現有服務會不會因為公司政策調整而停止提供,卻沒有明確答案。如果聯發科想扮演軟體供應商的角色,這些關鍵資訊必須更明確地提供給用戶,否則業務很難推展。

潛在用戶對達哥平台的評價,正好是硬體業者跨足軟體產業所必須跨越的門檻。軟體公司必須要有穩定的產品,即便是版本更新,也要盡可能讓既有的應用可以無縫過渡到新版本。如果這些基本要求無法保證,不管是企業或應用開發社群,心中都會產生疑慮,不利於產品服務推廣。

硬體跨界賣軟體 機會/挑戰同時存在

俗話說,隔行如隔山。不管是要從硬體跨到軟體,或是從軟體跨到硬體,一定都有學習曲線跟進入門檻需要跨越。在生成式AI時代,硬體廠商確實需要思考自己的軟體布局,畢竟NVIDIA已經展示,一家能主導軟體生態系的硬體廠,可以取得多大的成功。

但硬體廠商想將軟體研發成果變現的想法,必須審慎評估。軟體廠商能夠靠賣授權或收取權利金來創造收入,背後有很多因素,不是硬體廠商可以直接複製貼上的。硬體業者若想跨界賣軟體,必須先掌握軟體產業的遊戲規則,同時尋找自己切入的利基,才有成功的機會。

》想看更多內容?快來【免費加入會員】【登入會員】,享受更多閱讀文章的權限喔!
標籤
相關文章

生成式AI助手進軍EDA IC設計面臨大變革

2024 年 01 月 22 日

群聯aiDAPTIV+力降模型微調成本 助生成式AI落地

2024 年 03 月 28 日

兼顧效能/功耗/成本 SSD攜DRAM全力應援AI運算

2024 年 05 月 02 日

聯發科/微軟合推DaVinci教育雲 推動台灣AI學術研究

2024 年 07 月 10 日

DeepSeek引發喧然大波 草根AI模型還有路要走

2025 年 03 月 06 日

算力/記憶體容量/低功耗技術缺一不可 GAI導入邊緣開發大顯神通(1)

2024 年 06 月 03 日
前一篇
安立知全新非地面網路專題網站亮相
下一篇
以Tk模型進行參數擬合 衛星位置估算八九不離十(2)