一、定义
Cross - attention(交叉注意力)是一种在深度学习,特别是在Transformer架构及其衍生架构中广泛使用的注意力机制。它涉及到两个不同的输入序列之间的交互,用于计算一个序列中的元素对另一个序列中元素的注意力权重。
二、在Transformer架构中的位置和作用
- 架构回顾
- 在Transformer架构中,主要由多头注意力(Multi - Head Attention)模块等构成。多头注意力模块包含了自注意力(Self - Attention)和交叉注意力两种类型。
- 自注意力主要用于处理单个序列自身内部元素之间的关系,而交叉注意力用于在两个不同序列之间传递信息。...