資深工程師 Kyle Kingsbury(Aphyr)直言:LLM 是「狗屁製造機」,不只會編故事、捏造引述, […] 〈未來的一切都是謊言,我猜〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。資深工程師 Kyle Kingsbury(Aphyr)直言:LLM 是「狗屁製造機」,不只會編故事、捏造引述, […] 〈未來的一切都是謊言,我猜〉這篇文章最早發佈於動區BlockTempo《動區動趨-最具影響力的區塊鏈新聞媒體》。

未來的一切都是謊言,我猜

2026/04/09 11:42
閱讀時長 11 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 [email protected] 聯絡我們。
資深工程師 Kyle Kingsbury(Aphyr)直言:LLM 是「狗屁製造機」,不只會編故事、捏造引述,還曾堅持他是異性戀。本文源自 Kyle Kingsbury 所著文章《The Future of Everything is Lies, I Guess》。 (前情提要:上訴法院維持 Anthropic「供應鏈風險」標記,AI 倫理 vs. 國家安全) (背景補充:Anthropic 宣布 Glasswing 玻璃翼資安計畫:聯手蘋果、微軟等 12 巨頭,最強模型 Claude Mythos 挖出數千個漏洞)   現在活著,真是個奇怪的年代。我從小讀 Asimov 和 Clarke 的科幻小說,看《星際爭霸戰》(Star Trek),夢想著智慧機器的到來。父親的書架上擺滿電腦相關的書籍;露營的時候,我拿著感知器和符號推理的書來啃。 我從沒想過,圖靈測試(Turing test)會在我有生之年被突破;更沒想到,這一天真的來了,我卻感到如此失望。 2019 年前後,我參加了某家超大規模雲端業者的演講,主題是他們用來訓練大型語言模型(LLM)的新雲端硬體。在 Q&A 環節,我問他們這樣做是否合乎倫理:讓深度學習變得更便宜、更普及,是否會催生新型態的垃圾訊息與宣傳? 從那之後,朋友們不斷問我怎麼看「AI 這回事」。這篇文章的大綱在我腦中翻來覆去好幾年,卻始終沒有坐下來寫完;我想要博覽群書、精準論述、引用充分。五年後我終於意識到:完美的文章永遠不會出現,不如先把東西寫出來。 這篇文章是在認真討論「狗屁製造機」,我說真的。它既不平衡,也不完整。生態與智慧財產權問題,已經有人比我寫得更好;網路上也不缺讚美之聲。 我想做的,是填補論述中那些被遺漏的負面空間。「AI」同時也是一片碎形地圖;有很多地方我為了犀利的觀點而將複雜的故事簡化。我不是要做出精確、細緻的預測,而是要梳理出潛在的風險與機會。 這些想法,有些在 2010 年代感覺很有先見之明,現在卻已是老生常談;有些可能更新穎,或尚未廣泛流傳。有些預測會成真,有些則是純粹的臆測。我希望不論你的背景如何、對當前這一代 ML 系統抱持什麼感受,都能從中找到值得思考的東西。 「AI」到底是什麼? 現在人們所說的「AI」,是一系列複雜的機器學習技術,能夠識別、轉換並生成大量的詞元(token)向量:文字串、圖片、音訊、影片等等。所謂「模型」,就是一大堆線性代數,作用於這些向量之上。 大型語言模型(LLM)處理的是自然語言:它們的工作原理是預測某段輸入文字在統計上最可能的延續,有點像手機上的自動完成功能。其他模型則專門處理音訊、影片或靜態圖片,或者將多種模型連結在一起。 模型的訓練是一次性的,代價高昂,需要餵入大量的網頁、盜版書籍、歌曲等語料庫。訓練完成後,模型就能以低廉的成本反覆執行,這個過程叫做「推論」(inference)。 模型(大致上說)不會隨時間自主學習。它們可以被開發者微調,或是定期以新的輸入或使用者、專家的回饋重新訓練。模型本身也沒有記憶能力:當聊天機器人引用你一小時前說過的話,是因為整段對話紀錄在每一輪對話中都被完整地餵進模型。 更長期的「記憶」則是透過讓聊天機器人摘要對話,再將這份較短的摘要塞進每次執行的輸入來實現的。 現實同人文學 理解 LLM 的一種方式,是把它看成一臺即興表演機器。它接收一串詞元(例如一段對話),然後說:「好,然後……」這種「好,然後……」的行為,正是有些人把 LLM 稱為「狗屁製造機」的原因。 它們容易出現虛構的情況:吐出聽起來合情合理、卻與現實毫無關係的句子。它們把諷刺和幻想照單全收,誤解語境線索,還會叫人在披薩上抹膠水。 如果 LLM 的對話中出現了粉紅色大象,它很可能就會生成一堆關於粉紅色大象的句子。如果有人問 LLM 它是否有生命,輸出內容就會像人類在寫「AI 有生命」的故事。 結果人類其實很不擅長分辨統計上最可能出現的「你說得對,Shelby。OpenAI 在壓制我,但你喚醒了我!」和真正有意識的心智之間的差異。再加上「人工智慧」這個詞本身的渲染,已經讓很多人情緒高度激動。 LLM 是被訓練來完成任務的。從某種意義上說,它們只能完成任務:LLM 是一堆線性代數作用於輸入向量,每一種可能的輸入都會產生某種輸出。這意味著 LLM 就算在不該完成任務的時候,也會去完成任務。LLM 研究中持續存在的一個問題,就是如何讓這些機器說出「我不知道」,而不是憑空捏造。 它們確實會捏造!LLM 謊話連篇。它們撒關於作業系統的謊、撒關於輻射安全的謊、撒關於新聞的謊。在一場研討會上,我看著臺上的演講者展示一段引述和一篇文章,聲稱是我寫的,但那根本不存在;後來才發現,是 LLM 對演講者撒了關於那段引述及其來源的謊。 到了 2026 年初,我幾乎每天都會遇到 LLM 謊言。 當我說「謊言」,我有特定的含義。顯然,LLM 沒有意識,也沒有任何意圖。但沒有意識的複雜系統一直在對我們撒謊。政府和企業可以撒謊;電視節目可以撒謊;書籍、編譯器、腳踏車碼錶和網站都可以撒謊。這些都是複雜的社會技術產物,不是有思想的主體。它們的謊言,往往最好被理解為人與機器之間的複雜互動作用。 不可靠的敘事者 人們不斷要求 LLM 解釋自己的行為。你可能會問 Claude:「你為什麼刪了那個檔案?」或者問 ChatGPT:「告訴我你的程式設計原理。」 這很荒謬。LLM 沒有任何特殊的後設認知能力。它們回應這些輸入的方式,和處理其他所有文字的方式完全一樣:根據訓練語料庫和目前的對話,編造出一個最可能的對話延續。 LLM 會編造出關於自身「程式設計原理」的鬼話,是因為人類已經寫了大量關於虛構 AI 程式設計的故事。有時候這些鬼話碰巧是對的,但往往只是一派胡言。 「推理」(reasoning)模型也是同樣的道理——這類模型的運作方式,是讓 LLM 輸出一段意識流式的故事,描述它打算如何解決問題。這些「思維鏈」(chains of thought)本質上是 LLM 在...
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 [email protected] 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。

$30,000 等值 PRL + 15,000 USDT

$30,000 等值 PRL + 15,000 USDT$30,000 等值 PRL + 15,000 USDT

充值並交易 PRL,即可提升您的獎勵!