▲OpenAI影片生成模型Sora範例影片。(圖/翻數字X/OpenAI)
記者陳瑩欣/台北報導
隨著OpenAI推出可以「一句話創造一分鐘AI高畫質影片」的Sora平台示範影片成品後,不但以眼球經濟為核心的影視藝術創作產業受到巨大的震撼,更有潛在資安風暴正在生成。
KPMG安侯企管董事總經理謝昀澤表示,過去一段時間,以生成式AI技術創作或偽冒影片的深假技術(Deepfake)越來越普及,但多數影片都無法達到高畫質、長時間,且多鏡位的品質,深偽的工具使用門檻也較高,使用者仍有機會肉眼識別。但Sora的橫空出世,卻一舉突破了這些障礙,其根據簡單的提示詞,所生成的4K超高畫質影片,真實感已經達到專業人士難以分辨真偽的程度。
謝昀澤認為,過去大家都擔心會有超越專家能力的「超級人工智慧(Super AI)」出現,但是現在「超級深偽(Super Deepfake)」欺詐技術,已隨著越來越多的網路AI影音服務就在眼前,如果沒有適當的風險控制,將形成「深偽即服務(Deepfake as a Service, DaaS)」暗黑產業鏈。
謝昀澤強調,儘管Sora最初的目的是推進AI領域的創新,但其帶來的潛在風險不容被忽視。這項技術不但可能被用來製造更加精細和難以辨識的假新聞,對公眾意識形態、選舉、乃至國家安全構成前所未有的挑戰,連過去傳統的資安防護與認證基礎工程,如遠距身分識別等機制,都可能被撼動。
KPMG安侯企業管理股份有限公司執行副總經理林大馗依據近期資安情資分析,有多起犯罪集團利用深偽技術生成的AI人像來欺騙金融機構面部識別系統進行詐貸;更有多宗利用深度偽造技術針對跨國公司進行詐騙的事件,更造成了至少8億台幣的損失,顯示了以AI深偽技術結合傳統詐騙手法的「新智慧詐騙工程」正在蔓延。
謝昀澤認為要防止被Sora等AI影片「耍啦」,必須有要靠「使用者提升AI風險素養」,及「服務廠商建構AI內容的透明度與可識別度」等兩大防禦策略。
謝昀澤提醒,使用者對網路影音過去的認知是「有片有真相」,以後要轉變為「保持懷疑,確信來源」,才能夠在生成式AI普及的網路世界中,具備基本的「防深(偽)術」。
林大馗也建議應用生成式AI提供服務的企業或服務提供商,未來的資安不只要重視傳統的「機密性」,並於所產出的成品提供「透明的告知或識別」,讓使用者可以輕易分辨是AI生成的內容外,更要對「真實性」加強驗證,建構足夠的防偽機制。
例如,針對所欲發佈影音檔案,使用AI反偽冒工具,透過在原始檔中添加雜訊或其他浮水印的技術,來阻擋超級深偽的偽冒或複製;企業在高風險的網路交易中,可考慮以零知識證明(Zero-knowledge proof, ZKP)不透漏使用者自身資訊等新型密碼學技術,進行身分認證。
林大馗表示,生成式AI究竟會成為未來眼球經濟的「沉浸式利器」還是「沉沒式利刃」,關鍵就在資安防護能力。
讀者迴響