2025-03-15 08:57
在讀《扁平時代》其中一段特別有感:
「……它無法『分辨一篇寫得很好〔和〕一篇寫得很差的文章,如果這兩篇文章所用的詞彙相同的話』。這種無法辨別品質的特性讓我想到Al技術:像ChatGPT這樣的新工具看似能理解與生成有意義的語言,但實際上,它們只會重複用來訓練它們的既存資料中的固有模式而已。品質是很主觀的,單靠數據資料而缺乏人類的判斷,能衡量的程度十分有限。」
我曾經把一些心理問題或是社會時事丟給ChatGPT和Grok處理,看AI有沒有可能給出任何高見,但很快就發現AI也不過是生成它們資料庫既有的資訊而已。它們不一定能掌控最新的見解,也不能保證自己的意見有效,它們甚至無法替自己勘誤,一切都只是文字的生成。憑藉使用者提供的資訊和AI資料庫自己的資料,去拼湊最可能令人信服的答案,即使內容亂七八糟到讓人難以信服。
如果說理解來自於環境,那麼沒有實體的AI,就只是一個虛擬的拼圖機器。所以我個人目前還是把AI拿來講幹話、生成梗圖和翻譯文章使用而已,拿來當作搜尋引擎甚至引用來做參考對AI來說還太早了。