Skip to content

协同注意力简介

📅 发表于 2018/03/15
🔄 更新于 2018/03/15
👁️ 次访问
📝 0 字
0 分钟
自然语言处理
#论文笔记
#注意力
#VQA

只是记录一下Co-Attention,后续再补上本篇论文的全部笔记吧。

论文:Hierarchical Question-Image Co-Attention for Visual Question Answering

我的相关笔记:Attention-based NMT阅读笔记NLP中的Attention笔记

Co-Attention

这里以VQA里面的两个例子记录一下Co-Attention。即图片和问题。

注意力和协同注意力

注意力

注意力机制就像人带着问题去阅读, 先看问题,再去文本中有目标地阅读寻找答案。

机器阅读则是结合问题和文本的信息,生成一个关于文本段落各部分的注意力权重,再对文本信息进行加权

注意力机制可以帮助我们更好地去捕捉段落中和问题相关的信息。

协同注意力

协同注意力是一种双向的注意力, 再利用注意力去生成文本和问句的注意力。

  • 给文本生成注意力权值
  • 给问句生成注意力权值

协同注意力分为两种方式:

  • Parallel Co-Attention : 两种数据源A和B,先结合得到C,再基于结合信息C对A和B分别生成对应的Attention。同时生成注意力
  • Alternating Co-Attention: 先基于A产生B的attention,得到新的B;再基于新B去产生A的attention。两次交替生成注意力

Parallel Co-Attention

图片特征:VRd×N ,问句特征:QRd×T

同时生成图片和问题的注意力。

先计算关联矩阵

C=tanh(QTWbV)RT×N

计算注意力权值 avaq

方法1:直接选择最大值。anv=maxi(Ci,n)atq=maxi(Ct,j)

方法2:把关联矩阵当做特征给到网络中,进行计算注意力权值,再进行softmax更好

Hv=tanh(WvV+(WqQ)C),Hq=tanh(WqQ+(WvV)CT)av=softmax(whvTHv),aq=softmax(whqTHq)

利用注意力和原特征向量去计算新的特征向量

v^=n=1Nanvvn,q^=t=1Tqtqqt

Alternating Co-Attention

交替生成图片和问题的注意力。

  • 把问题归纳成一个单独向量q

  • 基于q 去和图片特征V去生成图像特征v^

  • 基于v和问题特征Q去生成问题特征q^

    具体地,给一个Xattention guidanceg ,通过x^=f(X,g)去得到特征向量x^

H=tanh(WxX+(Wgg)1T)

ax 是特征X注意力权值

ax=(softmax)(whxTH)

新的注意力向量 (attended image (or question) vector) :

x^=aixxi

对应本例子如下:

  • X=Q,g=0q
  • X=V,g=qv^
  • X=Q,g=v^q^
总访客数:   ·   总访问量:
PLM's Blog @ 2016 - 2025