更新时间:2018-08-24    发布人:申磊 点击次数:325

我组两篇论文被EMNLP2018录用

       近期,我组张文的一篇长文和邵晨泽的一篇短文被EMNLP2018录用。

        EMNLP2018, 2018 Conference on Empirical Methods in Natural Language Processing将于20181031日至114日在比利时的首都布鲁塞尔举行。EMNLP是自然语言处理领域的重要国际会议,每年举办一次。


        张文的论文领域为机器翻译,其被录用的论文信息如下:

        文章名:Speeding Up Neural Machine Translation Decoding by Cube Pruning

        作者列表:Wen Zhang, Liang Huang, Yang Feng, Lei Shen and Qun Liu

        主要内容:尽管神经机器翻译已取得了可喜的成果,但它在推理时的翻译速度较慢。这样的直接后果是必须在翻译质量和速度之间进行权衡,而其性能无法得到充分发挥。在本文中,我们将cube pruning应用于神经机器翻译以提高翻译速度。通过组合相似的目标隐藏状态以构造等价类,使得目标端的RNN扩展操作和在目标端的大词汇表上的softmax操作变少。实验结果表明,当获得相同甚至更好的翻译质量时,我们的方法可以比朴素的beam search在GPU上快5~7倍,在CPU上快7.3倍。


        邵晨泽的论文领域为机器翻译,其被录用的论文信息如下:

        文章名:Greedy Search with Probabilistic N-gram Matching for Neural Machine Translation

        作者列表:Chenze Shao, Xilin Chen, Yang Feng

        主要内容:神经机器翻译(NMT)模型通常在Teacher Forcing算法下利用单词级损失进行训练,不能正确评估翻译并受到exposure bias的影响。强化框架下的序列级训练可以缓解词级损失的问题,但是这种改进受到梯度估计的高方差的限制。在本文中,我们引入了概率n-gram匹配,并提出了一种生成可微分序列级目标的方法,通过它我们减少了对梯度估计的依赖。另外,我们在训练中直接进行贪婪搜索以减轻exposure bias。NIST汉英翻译任务的实证结果表明,我们的方法明显优于基于强化的算法,并且在强基线系统上实现了平均1.5个BLEU值的提升。