激勵函數

計算網路中, 一個節點的激勵函數定義了該節點在給定的輸入或輸入的集合下的輸出。標準的電腦晶片電路可以看作是根據輸入得到(1)或(0)輸出的數位電路激勵函數。這與神經網路中的線性感知機的行為類似。然而,只有非線性激勵函數才允許這種網路僅使用少量節點來計算非平凡問題。 在類神經網路中,這個功能也被稱為傳遞函式

單變數輸入激勵函數

名稱 函式圖形 方程式 導數 區間 連續性[1] 單調 一階導數單調 原點近似恆等
恆等函式          
單位階躍函式          
邏輯函式 (S函式的一種)    [2]      
雙曲正切函式          
反正切函式          
Softsign 函式[1][2]          
反平方根函式 (ISRU)[3]          
線性整流函式 (ReLU)          
帶洩露線性整流函式 (Leaky ReLU)          
參數化線性整流函式 (PReLU)[4]           Yes iff   Yes iff  
帶洩露隨機線性整流函式 (RReLU)[5]    [3]      
指數線性函式 (ELU)[6]           Yes iff   Yes iff   Yes iff  
擴展指數線性函式 (SELU)[7]  

with   and  

     
S 型線性整流激勵函數 (SReLU)[8]  
  are parameters.
     
反平方根線性函式 (ISRLU)[3]          
自適應分段線性函式 (APL)[9]    [4]    
SoftPlus 函式[10]          
彎曲恆等函式          
S 型線性加權函式 (SiLU)[11] (也被稱為Swish[12])  [5]  [6]    
軟指數函式[13]           Yes iff  
正弦函式          
Sinc 函式          
高斯函式          

說明

^ 若一函式是連續的,則稱其為 函式;若一函式 階可導,並且其 階導函式連續,則為 函式( );若一函式對於所有 都屬於 函式,則稱其為 函式,也稱光滑函式
^ 此處H單位階躍函式
^ α是在訓練時間從均勻分佈中抽取的隨機變數,並且在測試時間固定為分佈的期望值
^ ^ ^ 此處 邏輯函式

多變數輸入激勵函數

名稱 方程式 導數 區間 光滑性
Softmax函式      for i = 1, …, J  [7]    
Maxout函式[14]        

說明

^ 此處δ克羅內克δ函式

參見

參考資料

  1. ^ Bergstra, James; Desjardins, Guillaume; Lamblin, Pascal; Bengio, Yoshua. Quadratic polynomials learn better image features". Technical Report 1337. Département d』Informatique et de Recherche Opérationnelle, Université de Montréal. 2009. (原始內容存檔於2018-09-25). 
  2. ^ Glorot, Xavier; Bengio, Yoshua, Understanding the difficulty of training deep feedforward neural networks (PDF), International Conference on Artificial Intelligence and Statistics (AISTATS’10), Society for Artificial Intelligence and Statistics, 2010, (原始內容存檔 (PDF)於2017-04-01) 
  3. ^ 3.0 3.1 Carlile, Brad; Delamarter, Guy; Kinney, Paul; Marti, Akiko; Whitney, Brian. Improving Deep Learning by Inverse Square Root Linear Units (ISRLUs). 2017-11-09. arXiv:1710.09967  [cs.LG]. 
  4. ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian. Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification. 2015-02-06. arXiv:1502.01852  [cs.CV]. 
  5. ^ Xu, Bing; Wang, Naiyan; Chen, Tianqi; Li, Mu. Empirical Evaluation of Rectified Activations in Convolutional Network. 2015-05-04. arXiv:1505.00853  [cs.LG]. 
  6. ^ Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp. Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs). 2015-11-23. arXiv:1511.07289  [cs.LG]. 
  7. ^ Klambauer, Günter; Unterthiner, Thomas; Mayr, Andreas; Hochreiter, Sepp. Self-Normalizing Neural Networks. 2017-06-08. arXiv:1706.02515  [cs.LG]. 
  8. ^ Jin, Xiaojie; Xu, Chunyan; Feng, Jiashi; Wei, Yunchao; Xiong, Junjun; Yan, Shuicheng. Deep Learning with S-shaped Rectified Linear Activation Units. 2015-12-22. arXiv:1512.07030  [cs.CV]. 
  9. ^ Forest Agostinelli; Matthew Hoffman; Peter Sadowski; Pierre Baldi. Learning Activation Functions to Improve Deep Neural Networks. 21 Dec 2014. arXiv:1412.6830  [cs.NE]. 
  10. ^ Glorot, Xavier; Bordes, Antoine; Bengio, Yoshua. Deep sparse rectifier neural networks (PDF). International Conference on Artificial Intelligence and Statistics. 2011. (原始內容存檔 (PDF)於2018-06-19). 
  11. ^ Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning. [2018-06-13]. (原始內容存檔於2018-06-13). 
  12. ^ Searching for Activation Functions. [2018-06-13]. (原始內容存檔於2018-06-13). 
  13. ^ Godfrey, Luke B.; Gashler, Michael S. A continuum among logarithmic, linear, and exponential functions, and its potential to improve generalization in neural networks. 7th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management: KDIR. 2016-02-03, 1602: 481–486. Bibcode:2016arXiv160201321G. arXiv:1602.01321 . 
  14. ^ Goodfellow, Ian J.; Warde-Farley, David; Mirza, Mehdi; Courville, Aaron; Bengio, Yoshua. Maxout Networks. JMLR WCP. 2013-02-18, 28 (3): 1319–1327. Bibcode:2013arXiv1302.4389G. arXiv:1302.4389 .