Mastodon

Emergence:More is Different?

Dec 19, 2025 at 14:42:37

其實我想寫 Emergence 一陣子了,就是沒事會在腦中閃過的想法。

Emergence 很難被定義成一個具體量化的物理量,它更像是一種現象。雖然常被說是「量變產生質變」,但這說法總覺得只對了一半。前幾天看到加恩寫的〈如何成為新時代的文盲〉1,讀著有些既視感。他用印刷術當例子提醒:新科技出現,不代表理解會自動普及;識字率的提升其實是很慢的社會轉型,背後得靠宗教、國家、經濟結構這些推力,才真的能把人推進那個新時代。

這讓我回頭翻翻 Philip Anderson 在 1972 年發表的〈More is Different〉2。Anderson 真正想說的是:當尺度一換,重要的就不再是更精準的微觀方程,而是全新的描述語言與組織原理。拿氨分子(\(\text{NH}_3\))當例子最直觀:在理想的孤立系統裡,氮原子可以在氫原子平面的兩側翻轉,對應的是一個 double-well potential。在對稱的理想化描述下,它的 eigenstate 往往不偏向任何一邊,而是兩側 localized states 的線性疊加。

但現實世界從來不是孤立系統。一旦與環境交互作用——不管是碰撞、溶劑、還是量測裝置——Decoherence 會讓相位資訊難以維持。環境會篩選出那些特別穩、特別能被重複觀察的局域狀態。於是對稱在可觀測層次被環境有效地選掉,系統才會穩定地呈現成一個能被記錄下來的「事實」。

聯想到現在的大型語言模型(LLM),很多人討論 AI 的湧現,好像參數大到某個神祕數量級,模型就突然學會了推理。但如果看 Kaplan et al. 的 Scaling Laws 3,語言模型的 Loss 往往隨模型大小、資料量呈現相對平滑的預測趨勢。

LLM 的能力增長更像是連續變化,不一定存在物理相變式的臨界點。更有趣的是 Schaeffer et al. 的觀點4:許多所謂的 emergent abilities,可能只是評測指標的非線性(例如門檻效應)造成的假象(Mirage),把連續的改善誤讀成突變的圖像。

就像海浪,微觀上是無數水分子的動力學,但在宏觀尺度,我們看到了「浪」。我們之所以命名它,是因為那個集體模式已經穩定到足以被辨認。在浪花成形前,水珠的運動一直都在積累;只是還沒長成一個願意替它命名的型態。

所以所謂的神奇,往往不在於瞬間的魔法,而是大量微觀積累終於觸及了人類感知與分類的邊界。湧現不只是物理上發生了什麼,同時也是一個「終於知道該用什麼尺度去看它」的敘事。

在這個脈絡下,提問(Prompt)變得非常關鍵。與其說提問是神祕的投影,不如說它是一種強大的條件化(Conditioning):我們提供背景、格式,等於是在限縮輸出的空間。如果說 Emergence 包含了人類的觀測與定義,那 Prompt 其實就是在定義:什麼叫做「好答案」。

回到加恩說的新的識字能力(Literacy),在 AI 時代這種能力意味著在一個算力瘋狂擴張的世界裡,仍能保持主體性。我們必須理解這種「受限下的生成」,並懂得設計約束(條件化、驗證、評測)。問句本身就是你對這個龐大複雜系統施加的邊界條件。在無數隨機的律動中,唯有透過精準的限制,我們才能觀測到那朵真正有意義的浪花。

  1. 加恩(書不起), 〈如何成為新時代的文盲

  2. P. W. Anderson (1972), More Is Different. (Science 177, 393-396)

  3. J. Kaplan et al. (2020), Scaling Laws for Neural Language Models. (arXiv:2001.08361)

  4. R. Schaeffer et al. (2023), Are Emergent Abilities of Large Language Models a Mirage? (arXiv:2304.15004)