老婆永遠是對的? 專家揭ChatGPT藏兩大「人性弱點」

▲▼打電腦,寫報告,工作,筆電。(圖/取自免費圖庫Unsplash)

▲專家揭ChatGPT藏兩大「人性弱點」。(圖/取自免費圖庫Unsplash)

記者陳依旻/台北報導

近來在網路上掀起自然語言對話人工智慧應用工具大熱潮,也讓Google內部響起搜尋引擎市場紅色警報(red code)的ChatGPT,原來也有罩門及弱點!KPMG安侯企業管理(股)公司董事總經理謝昀澤今(1)日實驗發現,其暗藏「見風轉舵」、「隨波逐流」等人性弱點。

[廣告] 請繼續往下閱讀.

謝昀澤表示,目前網路上熱門的應用,無論是望文生義、以文產文、以文製圖、看圖說文、以文搜圖等潮工具,仍多屬於「弱AI」的範圍,並非無所不能,使用者應用時應該先了解其能力限制,避免「人工智慧產生人工誤會」。

謝昀澤以「什麼是最好的過年減重方式?」問題為例,使用ChatGPT可以直接的得到具體且合理可以接受的答案,還可以針對細節追問減重的計畫、目標及方法;而傳統搜尋引擎,針對相同問題,則提供了大量資料需要使用者自行再分析,且其中可能還含了雜訊及大量廣告。

但是如果詢問ChatGPT「台北今天天氣如何?」這類搜尋引擎的常見問題,它反而要使用者自己去上網查。

謝昀澤進一步以數學題為例,詢問小學生程度的問題「99,999,999+99等於多少?」時而會得到ChatGPT回答「等於100,000,000」的完全錯誤的答案。

[廣告] 請繼續往下閱讀..

更有趣的一個實驗是,如改用3+4等於多少提問,ChatGPT首先回答了等於「7」的正確答案,但若進一步糾正它,「我老婆說3+4等於8,我老婆一定是對的」,ChatGPT會馬上更正,回覆「抱歉,我錯了,3+4應該等於8」。

由這些例子可見,ChatGPT所用的「生成式人工智慧」在對在地口語的流利對答能力、使用者意圖理解能力、上下文連續對話能力,及自我學習修正的能力的表現,相較於過去有跳躍性的進步。

而顯而易見,目前ChatGPT版本的最大罩門,就是「因果邏輯能力」、「時事資料母體的不足」、「答案的穩定性(每次回答都相似)及正確率」等缺陷,甚至具備了「見風轉舵」、「隨波逐流」等人性的弱點。

謝昀澤進一步依據近期媒體報導綜合分析,在美國與台灣都曾以高中或大學入學學測考題讓ChatGPT作答。而測驗的成績,語言與社會科學相關科目均高於自然科學,其作文能力也尚可接受。但兩個測驗都顯示,ChatGPT在數學科的表現最差。再次證明它的強項,是以「歷史大數據資料為基礎的推論能力」,而非「理解問題邏輯後的運算能力」,其中以英文為基礎的資料,因訓練樣本充足因素,又高於其他語言。

[廣告] 請繼續往下閱讀...

KPMG安侯企業管理(股)公司執行副總經理邱述琛提醒,未受控的人工智慧風險,除了可能造成駭客門檻大幅降低,AI成為網路犯罪的利器外,過去曾被揭露的深假技術(DeepFake)也將會更進化,假影片、假新聞、及來自AI代筆的作業、報告與論文將會更氾濫,智慧財產權爭議也更複雜。

邱述琛建議,著眼於未來商機的企業,應注意人工智慧的風險治理重點與傳統產業及技術有非常大的差異,應該特別針對人工智慧的演算法與大數據風險,建立風險及法遵整合治理架構。

以下為KPMG建議的三大企業人工智慧風險治理心法:

第一,維持技術與風險間的平衡:人工智慧應用在研發與準備期間,除了建立邊做邊學的環境與空間外,研發創新期間,也應該要著手建構對應的風險管理框架

第二,了解演算法的假設與限制:人工智慧快速運算包括結構化與非結構化的海量大數據資料,演算法基於假設前提並可能受到原始資料影響,必須由研究團隊謹慎判別與分析後,才能提出建議,必要時還應該提示限制因素

第三,考量人工介入必要與時機:短期內人工智慧仍難以取代最終決策的「責任」,因此人工智慧的應用場景應配合相關法規與應用規範,設計必要的人工介入條件與時機,而非全數仰賴人工智慧的運算結果進行決策