应用情境

输入任意长度个向量进行处理。

从输入看:

从输出看

Sequence Labeling

Self-attention

Untitled

特点:考虑整个序列sequence的所有向量,综合向量序列整体和单个向量个体,得到对每一个向量处理后的向量

⇒将这个向量链接一个FC,FC可以专注于处理这一个位置的向量,得到对应结果。

Self-attention+FC可以交替使用