英特爾(Intel)伺服器晶片架構將大幅變動。物聯網應用興起揭開巨量資料(Big Data)時代序幕,因應此一趨勢,英特爾正致力改良伺服器晶片設計,並強化網路與軟體層運算機制,支援更複雜的網路及虛擬化運算功能。
英特爾資料中心與聯網系統亞太區暨中國區行銷總監Nick Knupffer提到,中國大陸致力推動智慧城市計畫,將率先引爆Big Data應用商機。 |
英特爾資料中心與聯網系統亞太區暨中國區行銷總監Nick Knupffer表示,全球資訊量正以驚人之勢成長,每2年就增加1.8ZB,資料中心擴充硬體設備的速度根本趕不及。尤其是文件、影像與網頁等無法第一時間數位化的非結構性資料,更將從行動裝置、IP監控系統、社群網路、金融及醫療設備,甚至智慧城市(Smart City)大量湧入資料中心,造成伺服器運算負擔與日俱增。
也因此,Knupffer強調,伺服器晶片平台的設計架構須全面翻新,增強網路演算、輸入/輸出(I/O)及記憶體儲存支援能力,才能滿足Big Data處理需求。目前,英特爾正積極研發下一代處理器,並特別針對非結構性資料分析,優化晶片設計架構與開發新的軟體層支援功能。
與此同時,由於Big Data動輒Petabyte以上且資料相當多樣化,因而要求更快速及更複雜的軟硬體分析功能,以提供用戶有效資訊,此亦使IT設備及軟體開發商對資料處理方式完全改觀。
Knupffer分析,在Big Data時代裡,資料中心將逐漸從傳統集中式儲存區域網路(SAN),轉型成分散式儲存架構(Distributed Storage Architecture)。新的資料處理模式將分成兩大塊,一塊為負責存取客戶端資料並執行初步分析的應用伺服器;另一塊則提供後設資料(Metadata)處理與大量儲存服務。藉此縮減資料中心業者50%的設備總持有成本(TCO),並提高系統效率。
舉例而言,英特爾已提出一套分散式儲存架構概念,透過搭載酷睿(Core)、凌動(Atom)系列晶片的工作站或微型伺服器,可在影像及資訊感測器收集資訊時同步進行處理,爭取後端伺服器分析與儲存資訊的作業時間。
Knupffer透露,英特爾最新低功耗Atom微型伺服器晶片將於今年底登場,包括惠普(HP)、廣達等廠商均計畫推出相關產品,助力實現更快、更好的Big Data處理模式。