▲搜索引擎龍頭Google面對ChatGPT的崛起,內部發起紅色警戒。(圖/路透)
記者楊庭蒝/綜合報導
近來一款AI聊天機器人「ChatGPT」 在全世界引起極高的關注,顛覆以往使用者對於「搜索」一詞的定義,不再需要打開搜索引擎後輸入關鍵字,再一步一步點進各種連結裡,現在只需要一句精準的問句,不管是要找食譜、撰寫論文、甚至是編譯程式,都可以再短短幾秒鐘的時間內得到解答。
「ChatGPT」是由美國人工智慧研究實驗室OpenAI所推出的人工智慧聊天機器人程式,是基於GPT-3.5架構所建設而成的大型語言模型,可以透過不斷地訓練提高答覆的精準度,在短短上架5天內吸引了超過百萬位的使用者,這也引起Google的高度關注。據「紐約時報」報導指出,Google內部已經為此拉起「紅色警戒」(code red),意識到ChatGPT恐怕會成為一個強大的威脅而繃緊神經。
雖然 ChatGPT 能夠回答五花八門的問題,不過,在較為人性化的搜索過程裡,不少使用者發現 ChatGPT 儘管可以給出較為詳細的答覆,但是否能成為一個精準且完全可以信任的正確答案,還是必須打上一個問號。目前最被使用者所詬病的其中幾點包括,ChatGPT 會意外地答錯一些簡單的問題,還有在重複詢問相同的一個問題時,會有一定的機率給出不一樣的答案。
台大前兒科醫師、YouTuber蒼藍鴿就曾拍一部影片,內容為詢問 ChatGPT 專業的醫學問題。影片中蒼藍鴿詢問「體溫幾度以上算發燒」,所得到的答覆為「身體溫度超過37.5就被認為是發燒,但這個數字不是絕對的標準」。
對此,蒼藍鴿指出,該回答雖然沒有太大的問題,但更精準的回覆應為「核心體溫超過38度算發燒」,根據量測方法不同,腋溫量測超過37.5度、耳溫量測在37.8度或是38度才算發燒。結語時他以專業醫生的角度提出想法,認為ChatGPT 在面對牽涉例如診斷用藥方面的問題時,就沒辦法精準回答,因此 ChatGPT 要說能夠替代醫生的職業恐怕言之過早。
OpenAI執行長山姆.阿特曼(Sam Altman)也曾針對 ChatGPT 呼籲,不要盡信聊天機器人的答案。而為何 ChatGPT 會有出現無法提供精準回答的問題產生,就有網友分析,其本質本就是「新型語言模型」,最初經過基礎的訓練後得以對用戶的問題產生基本回覆,再藉由大量文本學習訓練來理解與生成模擬人類的自然對話,所以對於那些無法精準回答的問題,只能藉由用戶的反饋及再訓練提升精準度。
所以,在提及 ChatGPT 等相關的AI模型是否已經可以替代部分職業時,大部分的使用者甚至是專家的答案是否定的,因為AI目前還是只能透過大量的文本與數據學習,而人類所擁有的情緒、直覺、個性、社交活動等綜合諸如此類的特質後所產生的行為,都還是AI無法深入理解與模仿的。
讀者迴響