貝氏推論

統計學方法

貝氏推論(英語:Bayesian inference)是推論統計的一種方法。這種方法使用貝氏定理,在有更多證據資訊時,更新特定假設機率。貝氏推論是統計學(特別是數理統計學)中很重要的技巧之一。貝氏更新(Bayesian updating)在序列分析中格外的重要。貝氏推論應用在許多的領域中,包括科學工程學哲學醫學體育運動法律等。在決策論的哲學中,貝氏推論和主觀機率有密切關係,常常稱為貝氏機率

貝氏定理是由統計學家托馬斯·貝葉斯(Thomas Bayes)根據許多特例推導而成,後來被許多研究者推廣為一普遍的定理[1]

貝氏定理的簡介

 
貝氏定理的圖示說明。在表中,3,1,2及6的值是在對應條件及情形下的比重。分數中的機率是指陰影部份的機率。可以看出P(A|B) P(B) = P(B|A) P(A) i.e. P(A|B) = P(B|A) P(A)/P(B)。類似的方式可以證明P(Ā|B) = P(B|Ā) P(Ā)/P(B)

正式的介紹貝氏推論

貝氏推論將事後機率(考慮相關證據或數據後,某一事件的條件機率)作為事前機率(考慮相關證據或數據前,某一事件不確定性的機率)和概似函數(由觀測數據的統計模型(機率模型)推導而得)這兩個前因導出的結果。貝氏推論根據貝氏定理計算事後機率:

 

其中

  •  表示將某事件成立作為條件(因此 表示「假定 B 事件成立下,A 事件發生」)
  •  表示假說,其機率可能會受實驗數據(以下會稱為證據)影響。一般來說會有許多互相矛盾的假說,任務是要確認哪一個假說可能性最高。
  •  表示證據。證據對應新的數據,也就是還沒用來計算事前機率的數據。
  •  事前機率,是觀察到數據 (目前證據)之前,假說 的機率。
  •  事後機率,是在給定證據  之後,假說 的機率,是希望求得的資訊,也就是在有目前證據時,假說 的機率。
  •  是假定  成立時,觀察到 的機率。在 不變時,這是 的函數,也是概似函數,指出在給定假設下假說和證據的相容程度。概似函數是證據 的函數,而事後機率是假說 的函數。
  •  有時會稱為邊際概似率英語marginal likelihood。此係數對所有可能的假說都是定值,因此在判斷不同假說的相對機率時,不會用到這個係數中。

針對不同的 數值,只有  (都在分子)會影響 的數值。假說的事後機率和其事前機率(固有概似率)和新產生的概似率(假說和新得到證據的相容性)乘積成正比。

貝氏定理也可以寫成下式:

 

其中係數 可以解釋成  機率的影響。

非正式的介紹貝氏推論

貝氏推論最關鍵的點是可以利用貝氏定理結合新的證據及以前的先驗機率,來得到新的機率(這和頻率學派推論相反,頻率論推論只考慮證據,不考慮先驗機率)。

而且貝氏推論可以迭代使用:在觀察一些證據後得到的後設機率可以當作新的先驗機率,再根據新的證據得到新的後設機率。因此貝氏定理可以應用在許多不同的證據上,不論這些證據是一起出現或是不同時出現都可以,這個程序稱為貝氏更新(Bayesian updating)。

貝氏推論的描述

定義

  •  是數據點,可能是一個有許多數值形成的向量英語random vector
  •  是數據點分布的參數,也就是說 。這也有可能是參數形成的向量。
  •  是參數的超參數英語hyperparameter,也就是說 。這也有可能是超參數形成的向量。
  •  ,由觀測到的 個數據點組成的一組數據, .
  •  ,需預測分布的新數據點。

貝氏推論

  • 事前分布是在觀測資料前的參數分布 
  • 事前分布可能不容易確認,此時可以用傑佛里斯事前分配英語Jeffreys prior在更新較新的觀測值時,先獲得後驗分布。
  • 取樣分布英語sampling distribution是以觀測資料的條件,其參數的分布 。這也稱為概似函數,尤其是視為是參數的函數時,有時會寫成 
  • 邊際概似率英語marginal likelihood(有時也稱為證據)是觀測資料在參數上的邊際分布 
  • 事後分布是考慮觀測資料後的參數分布。可以由貝氏定理確認,也是貝氏推論的核心:
 

若用文字表示,即為「後驗和先驗及概似率的乘積成正比」,有時也會寫成「後驗 = 先驗 × 概似率,在有證據的情形下」。

應用

電腦應用

貝氏推論有在人工智慧專家系統上應用。自1950年代後期開始,貝氏推論技巧就是電腦模式識別技術中的基礎。現在也越來越多將貝氏推論和以模擬為基礎的蒙地卡羅方法合併使用的應用,因為一些模雜的模型無法用貝氏分析得到解析解,因圖模式結構可以配合一些快速的模擬方式(例如吉布斯抽樣或是其他Metropolis–Hastings演算法[2]。因為上述理由,貝氏推論在系統發生學研究社群中來越受到重視,許多的應用可以用同時估測許多人口和進化參數。

歷史

「貝氏」是指托馬斯·貝氏(1702–1761),他證明了一個特例(現在知道是貝氏定理的特例),不過皮埃爾-西蒙·拉普拉斯(1749–1827)推導了此定理的一般版本,應用在天體力學、醫療統計學、可靠度英語Reliability (statistics)法學[3]。早期的貝氏推論是用拉普拉斯不充分理由原則英語principle of insufficient reason所得的均勻先驗,稱為逆向機率英語inverse probability(因為是由觀測值倒推參數的歸納推理,或是從結果倒推到原因[4])。在1920年代以後,逆向機率很大程度的被另一群稱為頻率論統計英語frequentist statistics的方式取代[4]

二十世紀時,拉普拉斯的概念往下分支為二派,開始出現主觀貝氏方法及客觀貝氏方法。客觀貝氏方法(或是不提供資訊的貝氏方法)中,統計分析只依照假設的模型、分析的資料[5]以及給定事前分布的方式(不同的客觀貝氏方法會有不同給定事前分布的方式)。主觀貝氏方法(或是提供資訊的貝氏方法)中,先驗的規格依信念(也是分析希望要呈現的主張)而定,信念可以由專家整理資訊後總結產生,也可以根據以往的研究等。

1980年代發現了馬爾科夫蒙地卡羅方法,讓貝氏方法的研究及應用有大幅的發展,除去了許多運算上的問題,也有越來越多人願意參與非標準的複雜問題[6]。不過雖然貝氏方法的研究仍在成長,大部份大學本科的教學仍是以頻率論統計英語frequentist statistics為基礎 [7]。不過貝氏方法也廣為許多領域接受及應用,例如在機器學習的領域中[8]

參考資料

  1. ^ Douglas Hubbard "How to Measure Anything: Finding the Value of Intangibles in Business" pg. 46, John Wiley & Sons, 2007
  2. ^ Jim Albert. Bayesian Computation with R, Second edition. New York, Dordrecht, etc.: Springer. 2009. ISBN 978-0-387-92297-3. 
  3. ^ Stigler, Stephen M. Chapter 3. The History of Statistics. Harvard University Press. 1986. 
  4. ^ 4.0 4.1 Fienberg, Stephen E. When did Bayesian Inference Become ‘Bayesian’? (PDF). Bayesian Analysis. 2006, 1 (1): 1–40 [p. 5] [2017-02-02]. doi:10.1214/06-ba101. (原始內容 (PDF)存檔於2014-09-10). 
  5. ^ Bernardo, José-Miguel. Reference analysis. Handbook of statistics 25. 2005: 17–90. 
  6. ^ Wolpert, R. L. A Conversation with James O. Berger. Statistical Science. 2004, 19 (1): 205–218. MR 2082155. doi:10.1214/088342304000000053. 
  7. ^ Bernardo, José M. A Bayesian mathematical statistics primer (PDF). ICOTS-7. 2006 [2017-02-02]. (原始內容 (PDF)存檔於2011-11-10). 
  8. ^ Bishop, C. M. Pattern Recognition and Machine Learning. New York: Springer. 2007. ISBN 0387310738. 

相關條目