王敏儀專欄︱ChatGPT會否取代我和你的工作?

    王敏儀專欄︱ChatGPT會否取代我和你的工作?

    自從 ChatGPT 的用戶數在短短兩個月突破 1 億,媒體及討論區最常「洗板」的討論,莫過於「ChatGPT 能否取代某工種」,一時間搞得大家都人心惶惶,彷彿下一秒人類的工作,都會被人工智能淘汰。特別是最近 ChatGPT 通過了 Google 三級工程師面試,更是直接將工程師這個職業推到了風口,AIGC(AI Generated Content) 也終於正式走進了大眾的眼簾。

    只需要輸入一串關鍵字,就能輸出一段完成度十分高的文字,甚至是一些簡單的程式碼,人們不約而同第一個問題都是:

    ChatGPT會取代我的工作嗎?

    各位讀者先不用擔心,這幾天已經有足夠多的文章,去探討生成式人工智能的優勢,亦同時令人看到人工智能的一些局限性。ChatGPT 的技術底座是大型語言模型(Large Language Models),簡稱 LLMs。就在這兩天,兩位十分著名的人工智能學者 Yann LeCun 和 Gary Marcus 統一了戰線,槍口對準了 LLM 的限制,LeCun 就提出了以下的意見:

    •           LLM 目前能且只能作為寫作的輔助工具

    •           LLM 是「被動的」且欠缺邏輯

    •           LLM 會胡說八道

    •           LLM 的錯誤可以通過人工反饋來解決,但無法完全根治

    •           更好的系統終會出現

    LeCun也指出了LLM最致命的一點:

    「語言只記載了所有人類知識的一小部分;人類大部分的知識或動物的知識都是非語言的。」

    LeCun 並不認同 ChatGPT 「真正」理解自己在說什麼,而且也將無法理解人類的知識。在眾多交流方式中,語言是一種高度具體但非常局限的知識表徵。無論是在所謂的自然語言、程式碼、還是符號,它們都具有特定形式的表徵,目的都是在抽象層面上,表達離散的物件和屬性,以及它們之間的關係。

    語言的特點是,它傳遞的資訊非常少,比起非語言的知識表徵,比如圖像和圖表,語言顯然並不是傳達資訊最完整的方式,而且語言比起其他方式,人們更易於壓縮句子中的信息量,在沒有相應語境或前文後理的情況下,人類的語言很多時候都需要透過推斷來判斷句子的真正含意。

    這也點出了一個「大型語言模型」的核心問題,自然語言從來也不是一件清晰的交流工具,也不會是一件訓練人類人工智能的終極工具,就此我們甚至不應稱 LLM 類的工具為「人工智能」,因其極其量也只是在背誦數據庫中的資料。

    在使用 ChatGPT 時,筆者非常強烈的感受到這個 LLM 在理解「前文後理」時的突破,可是當你試圖干擾及不停轉換觀點時,你更會發現 ChatGPT 會以重設來應付這種情況,比起反駁,ChatGPT 選擇了更不連貫的世界觀。

    這也就解釋了為甚麼 ChatGPT 給用戶的感覺是似懂非懂,語言模型的確協助 ChatGPT 獲取了人類知識的一小部分,但也只局限於自然語言能表達的層次。

    當然,這篇文章並不是要否定 LLM 帶來的革命性創新,只是「強」人工智能依然距離人類有點距離,也距離所謂取代「我們」,不是一天半天的事。

    #AIGC #ChatGPT #fintalk180 #LLMs #人工智能 #前文後理 #王敏儀 #革命性創新

    相關文章