正确答案是:A、C、D。
分析:
A: 使用注意力机制之后会增加计算量,但是性能水平能够得到提升。这个描述是正确的。注意力机制通过计算输入序列中不同部分的相关性来增强模型的性能,但这也意味着需要额外的计算开销。
B: 编码器-解码器的编码结果向量无法完整表示信息,并且存在信息覆盖的问题。这种说法不完全正确。传统的编码器-解码器架构可能在处理长序列时丢失信息,但注意力机制就是为了缓解这一问题而引入的。
C: 注意力机制的物理含义是对齐模型或影响力模型,表示的是目标与输入之间对应关系。这是正确的。注意力机制通过计算输入与目标输出之间的相关性来实现对齐,从而更好地捕获输入与输出之间的关系。
D: 引入Self Attention后会更容易捕获句子中长距离的相互依赖的特征。这是正确的。Self Attention机制允许模型在编码时关注输入序列中的所有位置,因此能够有效捕获长距离依赖关系。