▲宏達電打造機器人語意大腦,「疾管家」可望國、台、客語都通。(圖/記者洪巧藍攝)
記者姚惠茹/台北報導
宏達電(2498)旗下健康醫療事業部DeepQ團隊今(31)日宣布,推出新一代AI自然語言處理平台命名為T-BERT(Taiwan Bidirectional Encoder Representations from Transformers),使得電腦能同時三聲道讀聽寫國語、台語及客語,並可望應用在「疾管家」抗疫機器人上面。
宏達電運用多年來累積各領域的研發經驗,包括VR/AR、AI人工智慧、區塊鏈及自然語言處理等前瞻技術,積極投入抗疫,將相關技術與疾管署和衛福部合作,開發「疾管家」抗疫機器人,已超過200萬名使用者,發揮防疫抗疫積極效用。
宏達電DeepQ總經理張智威親自領軍,推出新一代AI自然語言處理平台T-BERT,採用Transformer網路架構,從左到右、從右到左,雙向讀取段落文字,透過編碼器分析文字特徵,結合為台灣研發的AI加速運算技術,大幅提升語意判斷的精準度至93.7%。
張智威表示,過去在台灣,同時支援國台客語的自然語言處理平台尚不存在,未來計畫將T-BERT模型開源釋出,並繼續擴充規模,以回饋學界與促進產業發展,並將陸續把該技術導入產品端,像是可以讓疾管家未來能夠支持國台客語問答。
張智威指出,自然語言處理平台必須能夠處理在地語言,才可實踐相關語意分析應用,因此DeepQ AI團隊與台灣大學廖世偉教授合作,應用深度學習模型與巨量資料處理的2個技術,針對台灣市場,打造出可支持國語、台語及客語的AI平臺。
張智威進一步指出,DeepQ AI團隊,讓AI不斷閱讀巨量語意資料庫,訓練AI模型判斷語意,不過要讓電腦可以學習如此巨量的資料,計算複雜且耗時,因此DeepQ團隊同時使用超過64顆GPU運算,運用平行運算技術架構,提升60倍的運算速度,將AI模型的學習時間有效縮短至6小時。
張智威強調,除了國語之外,T-BERT訓練也加入台語、客語文獻,而目前研發的AI模型已能將國語新聞自動分類成9大類別,像是財經、國際等類別,準確度達93.7%,但相對台語、客語語料庫規模較小,團隊則採用兩階段的微調訓練,讓台語、客語新聞分類準確度也能達到滿意的準確度。
讀者迴響