▲工研院3D立體建模技術。(圖/工研院提供)
記者蕭文康/台北報導
想像一下,如果不需要配戴任何配件,就能讓照片裡的人物、景物從2D平面變成立體3D,甚至可以和在異地的親人、年幼的自己互動,這樣使視覺感受更加的強勁,現在靠工研院的技術就能做到!
在目前動畫市場上來看,要建立3D人物模型,除了在建模軟體中,由專業美工人員進行編輯之外,如果要使用影像方式進行建模,都需要使用多部取像設備,在不同的角度下進行拍攝,才能產生3D人物模型,除了需耗費數十分鐘甚至數小時的時間進行計算,所費也不貲。由經濟部科專計畫補助工研院研發的「高擬真互動顯示系統」只需使用一部取像設備,一張正面影像,就可以在30秒內完成3D人物模型的建立。
由經濟部產業技術司補助工研院研發的「高擬真互動顯示系統」, 透過內建AI演算影像處理,能流暢地以AI技術將一張2D影像,即時去背、融合影像,不需透過穿戴裝置,用肉眼就可看到立體呈現照片中的人物或物品。電子與光電系統研究所所長張世杰表示,此項技術並透過智能化即時3D虛實影像融合技術、獨特的內凹式裸眼3D顯示專利、創新LED多角度色彩校正與3D成像技術,創造出「蒙娜麗莎效應」,讓觀眾可在不同角度看到不同的成像效果,並在與虛擬投影互動時,有更真實的感受。
張世杰進一步表示,此項系統還結合AI即時肢體辨識互動技術,透過影像感測模組搭配AI肢體辨識技術,可精準偵測人體33個關節點資訊,再依據即時肢體型態樣貌分析技術,精準與螢幕前的觀眾進行即時的手勢、訊息、3D表情符號互動,讓民眾在裸視3D顯示器的呈現內容中,以更直覺、更友善的肢體操控方式,邁入體感操控新世代。
「高擬真互動顯示系統」更攜手車用LED模組大廠聯嘉光電,以結合即時高擬真3D系統與多組合型態大型Mini LED顯示器,並整合自然語音生成、與AI問答、人臉辨識等技術,讓3D虛擬人物會說話還會做表情,於今年2024CES展上,與國際媒體與參展民眾互動;透過情境式互動體驗,展現智能系統整合的技術實力。未來可廣泛應用於遠距會議、商品直播、廣告行銷等需要即時互動的活動,開創顯示器新型態展演模式;前進全球LED Display市場,開闢新商機。
讀者迴響