BERT(Bidirectional Encoder Representations from Transformers)是Google于2018年提出的预训练语言模型,通过双向上下文建模显著提升了自然语言处理任务的性能。以下是对BERT架构的详细解析:
1. 核心架构
BERT基于Transformer的编码器(Encoder)构建,核心是多层自注意力机制(Self-Attention)和前馈神经网络(Feed-Forward Network)的堆叠。
1.1 Transformer编码器层
- 自注意力机制(Self-Attention):
每个词通过Query、Key、Valu...