「問題不在於機器會變得太聰明」。問題在於它們可能會變得像人類一樣蠢。
CAI(Centre for AI Safety)聲明轉移了人們對當前 AI 真實危機的注意
2023 年 5 月 30 日,人工智能安全中心(Centre for AI Safety, 簡稱 CAI)發表了一則言簡意賅的聲明:
「降低 AI 帶來的滅絕風險應該成為全球優先處理的議題,與大流行病和核戰爭並列。」
此聲明由多位知名 AI 研究者與業界領袖聯署,包括 Geoffrey Hinton、Yoshua Bengio 和 Demis Hassabis。有些人稱其為響起警鐘,也有人視之為危言聳聽。然而,這樣的簡短聲明掩蓋了一個更深層的問題:它將推測性的科幻情節與目前人工智能系統(尤其是大型語言模型(Large Language Models, LLMs))實際存在的結構性風險混為一談。結果是,大眾焦點被帶往假想中的「超級智能(superintelligence)」上,而忽略了我們當下將語言與判斷交由無法理解語義的統計模型所帶來的實際後果。
CAI 的聲明不僅是誇大渲染,更是危險的誤導。它讓公眾聚焦於一個遙不可及且未定義的末日威脅,卻忽略了眼前更為迫切的問題——我們將語言、判斷、知識生產的工作交給那些只會模仿語言表層形式、卻毫無理解能力的數學模型,以及已發生的後果。
AGI 的幻影:當前的 AI 並非智能
CAI 聲明背後的隱含前提是:人工智能正走在邁向通用人工智能(Artificial General Intelligence, AGI)的道路上——一種能夠自主推理、制定策略目標、甚至進行自我改進的智能實體。然而,事實上目前尚不存在這樣的系統。當前主流的人工智能系統幾乎全是統計型的樣式識別器,其中最具代表性的就是大型語言模型(LLMs),例如 GPT-4、Claude 3 和 Gemini。
這些模型並不具備任何意義上的「智能」。它們是透過龐大的文字語料訓練出來,目的是為了預測下個字詞。它們既不理解語義、也無法設定目標或推論後果。它們的「知識」並非來自經驗或實踐,而是源於資料中詞彙與句法的統計關聯。簡言之,它們更像是極其精密的自動填字系統(autocomplete),外觀看似聰明,實則空洞無物。
將這樣的系統視為未來導致人類滅絕的威脅,是一種類別錯誤(category error):它將流暢性(fluency)誤認為主體性(agency)、將語言結構的連貫性當作理解力,將模仿當作有意識的模擬。到目前為止,並無任何經驗證據顯示現有的 LLMs(即便規模再大)正逐步邁向 AGI。事實上,它們的種種缺陷——幻覺(hallucinations)、缺乏因果推理能力、部署後無法學習——恰恰反映出其在本質架構上的侷限。
真正的風險不是來自有意識的 AI,而是系統性的
今天的 AI 系統真正的風險,並非如科幻小說般來自自我意識的機器人,而是來自我們自己所設計、部署與依賴的制度選擇。這些風險是結構性的(systemic),而非主體性的(sentient)。
主要包括:
腐蝕知識體系(Epistemic Corruption)
LLM 並不產出知識,它只產出看似合理的語句。然而,這些模型越來越多地被應用於需要真實性、問責與嚴謹推理的領域——如撰寫法律、醫療建議與公共政策。這種以語言流暢性(fluency)取代真實性(truth)的現象,逐步侵蝕我們判斷知識真假的標準。
擬人化與過度信任(Anthropomorphisation and Overtrust)
使用者往往會將人類的理解力與主體性投射到 LLM 上,誤以為其具備推理能力、反思能力、甚至擁有立場與信念。這種誤解導致人類把關鍵決策交由其判斷,後果可能無法挽回。
放大偏見(Bias Amplification)
LLM 從人類產出的語料中學習,而這些語料本身往往含有性別、種族、意識形態等偏見。更糟的是,模型可能會進一步放大這些偏見,因為它們是訓練過程中最常見、最一致的語言模式。
廢話擴散(Bullshit Scaling)
LLMs 對於真假沒有內建判斷能力。如果訓練資料中包含錯誤、誤導、或語言空洞的內容(亦即哲學家 Harry Frankfurt 所定義的「廢話」(bullshit)),只要這些內容出現頻繁、語句通順,模型就會吸收並重複。
治理的自動化(Automation of Governance)
當 LLMs 被嵌入政府或企業的決策流程中(如社福審查、求職篩選、公共溝通),它們會將不透明的判斷轉化為無法被質疑的流程。這些系統看似中立,實則將開發者的世界觀悄悄寫入決策之中。
廢話偏誤:頻繁勝於真理
LLMs 最大的結構性問題之一在於它們傾向於模仿出現頻率最高的語言模式。這並不是出於設計缺陷,而是其統計學本質所致:模型的核心任務就是學習哪種語言使用最常見。
這就意味著,那些反覆出現的語言空洞、假訊息、或平庸的宣傳詞語——只要其語法結構合理——就更容易在模型中被學習並複製。即便有反對觀點,若其數量或語言風格不一致,便會被視為異常樣本而被邊緣化。
因此,LLM 在實際運作中很可能會成為知識退化的擴音器。它所獎勵的不是洞見,而是重複;不是批判思維,而是統計上的平均。若不有意進行干預,其輸出將不可避免地向「語言上最常見」靠攏,而這往往意味著「語言上最無意義」。
政治操控的敘事:CAI 聲明為何大行其道
為何像 CAI 聲明這樣的說法會受到追捧?答案不在科學,而在政治與策略層面。
資金與機構正當性
「末日風險(existential risk)」的敘事容易吸引資金、媒體與政策注意。當 AI 被描繪為關乎人類生死的議題時,相關研究機構與企業也能自我標榜為「人類守門人」。
規管主導權(Regulatory Capture)
當 AI 公司聲稱「我們是唯一有能力防止 AGI 失控的機構」,便可在法規制定中佔據主導地位,排除中小企業與公民社會的聲音。
迴避責任
與其面對當前因部署偏見系統、濫用監控工具、或助長假資訊所造成的倫理責任,不如轉移焦點至「50 年後的超級 AI」,更容易迴避問責。
換言之,「AI 將毀滅人類」這樣的說法並不是預測,而是一種話語策略。
回歸現實與制度批判
若我們真想面對 AI 的風險,就必須拒絕 AGI 的幻想,轉而分析當下 LLM 的開發與使用方式。這表示我們應該:
審視其訓練資料的來源與過濾機制;
要求部署環境的透明度與可審計性;
承認統計模型無法取代人類推理、倫理與理解;
批判提出災難敘事的制度性動機。
更重要的是,我們必須拒絕將智能簡化為語言預測的想法。真正的人類智能包含了身體性、情感、歷史性與倫理判斷。試圖用數學模擬來取代這些特質,不但削弱了其價值,更可能讓社會陷入判斷力的麻痺。
CAI 的聲明看似負責任,實則是一種知識上的誤導。它讓人將焦點放在一個可能永遠不會實現的 AGI 末日劇本,而忽略了當下我們面臨的具體危機:我們將語言、知識與倫理判斷權交給了缺乏理解力、只會模仿常見語言的統計系統。
真正的威脅,不在於 AI 是否會成為神,而在於我們是否已經將它當成祭司,並將人類自身的判斷力與道德責任拱手讓出。
換句話說,現在最需要防範的,不是 AI,而是我們在自以為已經自動化了思考的幻覺中棄守了真正的思考本能。