Transformer模型

采用注意力机制的深度学习模型
(重定向自Transformer

Transformer模型(直译为“变换器”)是一种采用注意力机制深度学习模型,这一机制可以按输入数据各部分重要性的不同而分配不同的权重。该模型主要用于自然语言处理(NLP)与计算机视觉(CV)领域。[1]

循环神经网络(RNN)一样,Transformer模型旨在处理自然语言等顺序输入数据,可应用于翻译、文本摘要等任务。而与RNN不同的是,Transformer模型能够一次性处理所有输入数据。注意力机制可以为输入序列中的任意位置提供上下文。如果输入数据是自然语言,则Transformer不必像RNN一样一次只处理一个单词,这种架构允许更多的并行计算,并以此减少训练时间。[2]

Transformer模型于2017年由谷歌大脑的一个团队推出[2],现已逐步取代长短期记忆(LSTM)等RNN模型成为了NLP问题的首选模型。[3]并行化优势允许其在更大的数据集上进行训练。这也促成了BERTGPT等预训练模型的发展。[4][5] 这些系统使用了维基百科Common Crawl英语Common Crawl等大型语料库进行训练,并可以针对特定任务进行微调。[6][7]

背景

在Transformer模型之前,大多数最先进的NLP系统都依赖于诸如LSTM门控循环单元英语Gated recurrent unit(GRU)等门控RNN模型,并在此基础上增加了注意力机制。Transformer正是在注意力机制的基础上构建的,但其没有使用RNN结构,这表明仅依靠注意力机制就能在性能上比肩加上了注意力机制的RNN模型。

顺序处理

门控RNN模型按顺序处理每一个标记(token)并维护一个状态向量,其中包含所有已输入数据的表示。如要处理第 个标记,模型将表示句中到第 个标记为止的状态向量与最新的第 个标记的信息结合在一起创建一个新的状态向量,以此表示句中到第 个标记为止的状态。从理论上讲,如果状态向量不断继续编码每个标记的上下文信息,则来自一个标记的信息可以在序列中不断传播下去。但在实践中,这一机制是有缺陷的:梯度消失问题使得长句末尾的模型状态会缺少前面标记的精确信息。此外,每个标记的计算都依赖于先前标记的计算结果,这也使得其很难在现代深度学习硬件上进行并行处理,这导致了RNN模型训练效率低下。

自注意力机制

注意力机制解决了上述这些问题。这一机制让模型得以提取序列中任意先前点的状态信息。注意力层能够访问所有先前的状态并根据学习到的相关性度量对其进行加权,从而提供相距很远的标记的相关信息。

翻译是一个能够突显注意力机制优势的例子,其中上下文对于句子中单词的含义至关重要。例如在一个将英语翻译为法语的系统中,法语输出的第一个词很可能取决于英语输入的前几个词。然而在经典的LSTM模型中,为了产生法语输出的第一个单词,模型需要访问处理完最后一个英语单词后得到的状态向量。理论上这个向量包含了整个英语句子的信息,从而为模型提供所有必要的知识。然而在实践中,LSTM通常无法很好地保存这些信息。可以通过添加注意力机制来解决这个问题:解码器可以访问每个英语输入单词的状态向量,而不仅仅是最后一个单词。同时模型可以学习注意力权重,这些权重决定了对每个英语输入状态向量的关注程度。

在RNN模型中添加注意力机制能提高模型的性能。而Transformer架构的发展表明,注意力机制本身就足够强大,并且不需要像RNN模型一样再对数据进行顺序循环处理。Transformer模型采用了没有RNN模型的注意力机制,它能够同时处理所有标记并计算它们之间的注意力权重。由于注意力机制仅使用来自之前层中其他标记的信息,因此可以并行计算所有标记以提高训练速度。

架构

输入

输入文本使用字节对编码以进行标记化,每个标记通过词嵌入转换为向量。然后,将标记的位置信息添加到嵌入向量中。

编码器-解码器架构

与早期的seq2seq模型一样,原始的Transformer模型使用编码器-解码器(encoder–decoder)架构。编码器由逐层迭代处理输入的编码层组成,而解码器则由对编码器的输出执行相同操作的解码层组成。

每个编码层的功能是确定输入数据的哪些部分彼此相关。它将其编码作为输入再传递给下一个编码层。每个解码层的功能则相反,读取被编码的信息并使用整合好的上下文信息来生成输出序列。[8]为了实现这一点,每个编码层和解码层都使用了注意力机制。

对于每个输入,注意力会权衡每个其他输入的相关性,并从中提取信息以产生输出。[9]每个解码层都包含一个额外的注意力机制,它会在从编码层提取信息之前先从之前解码器的输出中提取信息。

编码层和解码层都有一个前馈神经网络用于对输出进行额外处理,并包含残差连接和层归一化步骤。[9]

缩放点积注意力

Transformer模型的基本构建单元是缩放点积注意力(scaled dot-product attention)单元。当一个句子被传递到一个Transformer模型中时,可以同时计算所有标记互相之间的注意力权重。注意力单元为上下文中的每个标记生成嵌入,其中包含有关标记本身的信息以及由注意力权重加权得到的其他相关标记的信息。

对于每个注意力单元,Transformer模型学习三个权重矩阵,分别为查询(query)权重 、键(key)权重 以及值(value)权重 。对于每个标记 ,输入词嵌入 分别与三个权重矩阵相乘以得到查询向量 、键向量 与值向量 。再使用查询向量和键向量计算注意力权重,即计算  的点积以得到从标记 到标记 的注意力权重 。之后再将注意力权重除以向量维度的平方根 以在训练期间稳定梯度,并通过softmax函数对权重进行归一化。  的不同意味着注意力是非对称的:如果标记 很关注标记 (即 很大)并不一定意味着标记 也反过来关注标记 (即 可能很小)。对每一个标记 而言,注意力单元的输出是以 (标记 到每一个标记的注意力)加权所有标记的值向量得到的加权和。

对所有标记的注意力计算可以表示为使用softmax函数的一个大型矩阵计算,由于可以对矩阵运算速度进行优化,这十分利于训练速度的提升。矩阵   可分别定义为第 行是向量   的矩阵。

 

多头注意力

一组 矩阵称为一个注意力头(attention head),Transformer模型中每一层都包含多个注意力头。每个注意力头都表示不同标记相互之间的注意力,而多个注意力头则可以针对不同的“相关性”计算不同的注意力权重。许多注意力头编码的相关性信息是人类可以理解的,例如某个注意力头可能主要关注下一个单词,而另一个注意力头则可能主要关注动词与其直接宾语之间的关系。[10]每个注意力头的计算可以并行执行,这使得处理速度得以加快。注意力层的输出被连接起来传递到前馈神经网络层。

编码器

每个编码器由一个自注意力机制和一个前馈神经网络两个主要部分组成。自注意力机制接受来自前一个编码器的输入编码,并计算它们之间相关性的权重以生成输出编码。前馈神经网络则进一步单独处理每个输出编码。然后将这些输出编码作为输入传递给下一个编码器以及解码器。

第一个编码器将输入序列的位置信息和嵌入作为其输入。位置信息向Transformer模型提供了序列的顺序信息,这是模型中唯一利用这一信息的部分。[2]

编码器是双向的,这意味着当前标记的注意力可以放在之前或之后的标记上。

解码器

每个解码器由一个自注意力机制、一个针对编码器的注意力机制和一个前馈神经网络三个主要部分组成。解码器的功能与编码器类似,但插入了一个额外的注意力机制,它从编码器生成的编码中提取相关信息。这种机制也可以称为编码器-解码器注意力(encoder-decoder attention)。[2][9]

与第一个编码器一样,第一个解码器也将输出序列的位置信息和嵌入作为其输入。因为模型不能使用当前或未来的输出来预测输出,因此必须对输出序列进行部分屏蔽以防止这种反向信息流。[2]这使得自回归文本生成成为可能。最后一个解码器之后是最终的线性变换softmax层以产生所有词汇的输出概率。

GPT是一种仅具有解码器的架构。

替代架构

训练基于Transformer模型的架构可能很昂贵,尤其是对于长输入而言。替代架构包括Reformer模型、ETC/BigBird模型等[11],前者可以将计算复杂度从 减少为  ,后者则可以减少到 ,其中 表示序列长度。其实现得益于局部敏感哈希英语Locality-sensitive hashing与可逆层。[12][13]

原始的Transformer模型需要与上下文窗口大小成二次方的内存大小。无注意力Transformer模型(Attention Free Transformer)[14]则将对内存的需求减少为线性依赖,同时通过连接链与值保留了Transformer模型的优势。

2020年底推出了用于比较不同Transformer架构的基准测试。[15]

训练

Transformer模型通常会进行自监督学习,包括无监督预训练和监督微调。由于监督微调时使用的带标签训练数据一般比较有限,预训练通常会在比微调时所用的更大的数据集上完成。预训练和微调的任务通常包括:

应用

Transformer模型在自然语言处理(NLP)领域取得了巨大成功,例如机器翻译时间序列预测任务。[17]包括GPT-2、GPT-3BERT、XLNet与RoBERTa在内的许多预训练模型展示了Transformer模型执行各种NLP相关任务的能力,并有很多潜在实际应用。[6][7][18]这些应用包括:

2020年,Transformer架构(更具体地说是GPT-2)被证明可以通过微调执行下象棋的任务。[24]Transformer模型也已应用于图像处理,其结果可与卷积神经网络相媲美。[25][26]

实现

Transformer模型已在TensorFlowPyTorch等标准深度学习框架中实现。

Transformers是由Hugging Face制作的一个库,提供基于Transformer的架构和预训练模型。[3]

参见

参考文献

  1. ^ He, Cheng. Transformer in CV. Transformer in CV. Towards Data Science. 31 December 2021 [2022-06-08]. (原始内容存档于2023-04-16). 
  2. ^ 2.0 2.1 2.2 2.3 2.4 Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia. Attention Is All You Need. 2017-06-12. arXiv:1706.03762  [cs.CL]. 
  3. ^ 3.0 3.1 Wolf, Thomas; Debut, Lysandre; Sanh, Victor; Chaumond, Julien; Delangue, Clement; Moi, Anthony; Cistac, Pierric; Rault, Tim; Louf, Remi. Transformers: State-of-the-Art Natural Language Processing. 2020: 38–45. doi:10.18653/v1/2020.emnlp-demos.6. 
  4. ^ Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. 2018-10-11. arXiv:1810.04805v2  [cs.CL]. 
  5. ^ Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing. Google AI Blog. [2019-11-27]. (原始内容存档于2021-01-13) (英语). 
  6. ^ 6.0 6.1 6.2 6.3 Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing. Google AI Blog. [2019-08-25]. (原始内容存档于2021-01-13). 
  7. ^ 7.0 7.1 7.2 Better Language Models and Their Implications. OpenAI. 2019-02-14 [2019-08-25]. (原始内容存档于2020-12-19). 
  8. ^ Sequence Modeling with Neural Networks (Part 2): Attention Models. Indico. 2016-04-18 [2019-10-15]. (原始内容存档于2020-10-21). 
  9. ^ 9.0 9.1 9.2 Alammar, Jay. The Illustrated Transformer. jalammar.github.io. [2019-10-15]. (原始内容存档于2020-10-18). 
  10. ^ Clark, Kevin; Khandelwal, Urvashi; Levy, Omer; Manning, Christopher D. What Does BERT Look at? An Analysis of BERT's Attention. Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (Florence, Italy: Association for Computational Linguistics). August 2019: 276–286 [2022-06-08]. doi:10.18653/v1/W19-4828 . (原始内容存档于2020-10-21). 
  11. ^ Constructing Transformers For Longer Sequences with Sparse Attention Methods. Google AI Blog. [2021-05-28]. (原始内容存档于2021-09-18) (英语). 
  12. ^ Tasks with Long Sequences – Chatbot. Coursera. [2022-06-08]. (原始内容存档于2020-10-26). 
  13. ^ Reformer: The Efficient Transformer. Google AI Blog. [2020-10-22]. (原始内容存档于2020-10-22) (英语). 
  14. ^ Zhai. An Attention Free Transformer. arXiv:2105.14103 . 
  15. ^ Tay. Long Range Arena: A Benchmark for Efficient Transformers. arXiv:2011.04006 . 
  16. ^ 16.0 16.1 Wang, Alex; Singh, Amanpreet; Michael, Julian; Hill, Felix; Levy, Omer; Bowman, Samuel. GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding. Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (Stroudsburg, PA, USA: Association for Computational Linguistics). 2018: 353–355. S2CID 5034059. arXiv:1804.07461 . doi:10.18653/v1/w18-5446. 
  17. ^ Allard, Maxime. What is a Transformer?. Medium. 2019-07-01 [2019-10-21]. (原始内容存档于2020-10-17) (英语). 
  18. ^ Yang, Zhilin Dai, Zihang Yang, Yiming Carbonell, Jaime Salakhutdinov, Ruslan Le, Quoc V. XLNet: Generalized Autoregressive Pretraining for Language Understanding. 2019-06-19. OCLC 1106350082. 
  19. ^ Monsters, Data. 10 Applications of Artificial Neural Networks in Natural Language Processing. Medium. 2017-09-26 [2019-10-21]. (原始内容存档于2020-10-17) (英语). 
  20. ^ Rives, Alexander; Goyal, Siddharth. Biological structure and function emerge from scaling unsupervised learning to 250 million protein sequences. bioRxiv 10.1101/622803 . 
  21. ^ Nambiar, Ananthan; Heflin, Maeve; Liu, Simon; Maslov, Sergei; Hopkins, Mark; Ritz, Anna. Transforming the Language of Life: Transformer Neural Networks for Protein Prediction Tasks.. 2020. S2CID 226283020. doi:10.1145/3388440.3412467 . 
  22. ^ Rao, Roshan; Bhattacharya, Nicholas. Evaluating Protein Transfer Learning with TAPE. bioRxiv 10.1101/676825 . 
  23. ^ Bertasias; Wang; Torresani. Is Space-Time Attention All You Need for Video Understanding?. 2021. arXiv:2102.05095  [cs.CV]. 
  24. ^ Noever, David; Ciolino, Matt; Kalin, Josh. The Chess Transformer: Mastering Play using Generative Language Models. 2020-08-21. arXiv:2008.04057  [cs.AI]. 
  25. ^ Dosovitskiy, Alexey; Beyer, Lucas; Kolesnikov, Alexander; Weissenborn, Dirk; Zhai, Xiaohua; Unterthiner, Thomas; Dehghani, Mostafa; Minderer, Matthias; Heigold, Georg; Gelly, Sylvain; Uszkoreit, Jakob; Houlsby, Neil. An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. 2020. arXiv:2010.11929  [cs.CV]. 
  26. ^ Touvron, Hugo; Cord, Matthieu; Douze, Matthijs; Massa, Francisco; Sablayrolles, Alexandre; Jégou, Hervé. Training data-efficient image transformers & distillation through attention. 2020. arXiv:2012.12877  [cs.CV].