我是廣告 請繼續往下閱讀
聯發科指出,開放原始碼釋出的大型語言模型,目前多數仍以英文為主要優化的對象,繁體中文的語言模型相對不足。為此中央研究院詞庫小組在2019年開發並公開BERT和GPT-2的繁體中文優化版本,但是因為資料量的差距,這些模型與主流的大型語言模型差距越來越大。有鑑於開放原始碼繁體中文大型語言模型的重要性與迫切性,在2022年5月,聯發創新基地、中央研究院和國家教育研究院展開合作計畫,使用大型語言模型BLOOM的繁體中文模型再訓練與優化。
目前開放系列中第一個有量級跳躍意義的繁體中文語言模型,聯發創新基地也暫備一個手機網頁的介面,供語言模型研究者試用。此模型系列的評量指標,以及參數量更大(176B)的模型,將會陸續開放下載。
為了建立該項語言模型,國家教育研究院提供了大量高品質的繁體中文語料,作為主要的訓練材料。聯發創新基地則建置了訓練的硬體環境,制訂各種符合國際標準的繁體中文評量指標,收集更近期的語料,並對模型進行能更有效讀懂使用者的指示(prompt)的特別訓練。中央研究院詞庫小組則針對模型生成的文字是否具有偏見或敵意等不合適的內容,進行自動偵測與改正的研究與評估。評估結果表明,這套由三方提供的一系列繁體中文語言模型,均達到開源模型前所未有的效果,較能避免具有偏見或敵意的內容。
大型語言模型近來的蓬勃發展,源自於2019年Google推出的BERT語言模型,以及同年OpenAI開始推出的一系列GPT語言模型。這些大型語言模型已經被證實具備相當的知識與能力,即使在少量訓練資料,甚至無訓練資料之下也依然能夠對新任務產生正確結果,已成為人工智慧往前進化不可或缺的基礎。