聯發科技集團轄下的聯發創新基地已於Huggingface上架基於OpenAI Whisper的AI語音辨識(Speech to Text, STT)開源模型MediaTek Research Breeze ASR 25。相較於OpenAI Whisper,Breeze ASR 25對台灣用語及口音的辨識準確度更高,同時,在台灣常見的中、英混合的用語情境上,也達到更高的精準度。此外,模型以Apache 2.0條款釋出,以促進百工百業在各類創意AI領域應用。
聯發創新基地負責人許大山博士表示,開源語音辨識模型雖逐年進步,但對於台灣在地用語及口音的辨識度仍顯不足,例如會把「發生什麼事」辨識成「花生什麼事」。有鑑於語音辨識是AI應用的關鍵啟動功能,此次特別釋出「聽得懂在地語言」的ASR模型MR Breeze ASR 25,其精準度相較於OpenAI的Whisper提升近10%、中英語轉換表現(Code-switching)則增進56%。藉此,聯發創新基地能以完整的繁體中文AI模型,積極推進繁體中文AI的創新並普及模型於地端及裝置端的使用。
聯發創新基地自2025起已陸續開源全套繁體中文AI模型,包含整合視覺功能的語言模型(Visual Large Language Models, V-LLM)、針對台灣口音調整的文字轉語音模型(Text to Speech, TTS)、以及能調用外部資訊的函式呼叫(Function Calling)模型。此次釋出的MR Breeze ASR 25為MR Breeze系列第二代語音辨識開源模型,能即時將語音轉為文字,並透過強化台灣語料及台灣口音,來符合本土應用需求。MR Breeze ASR 25日前已於HuggingFace上架,想了解更多請至聯發創新基地與HuggingFace上的MR Breeze ASR 25開發者平台。