学术动态

NLP组4篇论文被ACL2019接收

发布时间:2019-05-16

5月15日,我组3篇长文1篇短文被ACL2019录用,第一作者分别是张文、邵晨泽、申磊和李泽康。

ACL是计算语言学和自然语言处理领域的顶级国际会议,CCF A类会议,由计算语言学协会主办,每年举办一次。ACL2019(the 57th Annual Meeting of the Association for Computational Linguistics)将于2019年7月28日至8月2日在意大利佛罗伦萨举行。下面是论文列表及介绍:

题目:Bridging the Gap between Training and Inference for Neural Machine Translation

作者:Wen Zhang, Yang Feng, Fandong Meng, Di You and Qun Liu

简介:为了解决NMT训练和测试时候context不一致的情况,我们从ground truth和自己生成的译文中以一定的概率采样词语作为context,随着训练的进行,选择ground truth词语的概率进行衰减,在RNNSearch和Transformer上翻译性能均有大幅提升。

题目:Retrieving Sequential Information for Non-Autoregressive Neural Machine Translation

作者:Chenze Shao, Yang Feng, Jinchao Zhang, Fandong Meng, Xilin Chen and Jie Zhou

本文旨在非自回归NMT中加入序列信息:一种是通过强化学习采用序列级的loss进行训练,另一种是在顶层加上自回归的结构。本文提出的强化学习算法讲top n枚举和sampling相结合,在满足无偏估计的基础上,减少迭代并降低方差。

题目:Modeling Semantic Relationship in Multi-turn Conversations with Hierarchical Latent Variables

作者:Lei Shen, Yang Feng and Haolan Zhan

简介:本文通过CVAE引入了层次化的隐变量来显式建模多轮对话中的语义关系。通过对话级别的隐变量确定全局的背景信息,末轮问答对级别的隐变量捕捉关系最密切的问答之间的相同话题表示,末轮问答句级别的隐变量分别表征问答的不同语言表达方式,显著提高了多轮对话中应答的多样性和一致性。

题目:Incremental Transformer with Deliberation Decoder for Document Grounded Conversations

作者:Zekang Li, Cheng Niu, Fandong Meng, Yang Feng, Qian Li and Jie Zhou

简介:本文提出了一种基于Transformer模型的增量式Transformer+推敲解码器模型,用于解决基于文档知识的多轮对话任务,有效提升了生成回复的上下文的一致性和知识的正确性,在相关数据集的自动评测和人工评测中取得了远超基线模型的结果。


附件下载: