Match-LSTM and Answer Pointer
📅 发表于 2018/05/09
🔄 更新于 2018/05/09
👁️ 次访问
📝 0 字
⏳ 0 分钟
机器阅读理解
#机器阅读
#论文笔记
#Match-LSTM
#Pointer Net
最初的Match-LSTM阅读理解模型。
论文地址:Machine Comprehension Using Match-LSTM and Answer Pointer
后面会详细补充。
传统解决问答的方法:语言分析、特征工程等,具体包括句法分析、命名实体识别、问题分类、语义分析等。
1. 文本蕴含任务
一个前提集合P,一个假设H。去预测P里是否能蕴含出H。
2. Match-LSTM
有K个前提
在
聚合匹配
其实类似于Attention-Based NMT的解码过程。
从一个输入序列中,选择一个位置作为输出。
段落
单向LSTM编码
取每一时刻的隐状态,得到对文章和问题的编码。
这一层实际上是一个LSTM,输入依次是P中的各个单词
问题--前提,段落--假设,看问题蕴含P的哪些部分。
先计算注意力权值
利用注意力机制,计算所有Q基于当前注意力
,把注意力和
把match后的结果,输入到LSTM,
定义从右向左,得到
输入Match-LSTM层对Passage的编码结果
序列模型
不断生成一个序列
在P的末尾设置一个停止标记,如果选择它,则停止迭代。新的
1、计算注意力权值
2、使用注意力机制得到当前时刻需要的
答案的概率计算如下:
目标函数:
边界模型
不用预测完整的序列,只预测开始和结束位置就可以了。