11月1日-5日,我组刘群老师、博士生王明轩和陈宏申赴美国德克萨斯州奥斯汀参加了自然语言处理领域的顶级会议之一的EMNLP 2016(Conference on Empirical Methods in Natural Language Processing,基于实证方法的自然语言处理会议)。会上,王明轩同学应邀作了口头报告,展示了他在神经网络机器翻译上的研究进展。陈宏申同学和姜文斌老师的工作也应邀在大会上以海报的形式进行了展示。
他们三人的会议论文分别为:
Memory-enhanced Decoder for Neural Machine Translation
Mingxuan Wang, Zhengdong Lu, Hang Li and Qun Liu
Automatic Cross-Lingual Similarization of Dependency Grammars for Tree-based Machine Translation
Wenbin Jiang, Wen Zhang, Jinan Xu and Rangjia Cai
Neural Network for Heterogeneous Annotations
Hongshen Chen, Yue Zhang and Qun Liu
王明轩同学的论文受到了广泛的关注,他提出了一种将额外的存储信息加入机器翻译模型的方法,这个方法提供了非常好的扩展能力,很多业内的研究人员表示了很大的兴趣,在提问环节互动非常热烈。
今年EMNLP的海报展示环节有了更加丰富的元素,比如“半分钟”环节,该环节要求每位参与人员上台用半分钟讲述自己的工作,相当于给自己的研究打广告。陈宏申同学借此环节介绍了自己在词性标注方面的工作,王明轩同学也代替姜文斌老师介绍了句法方面的工作。这个环节比较灵活,有个美国小伙子甚至用唱歌的方式介绍自己的工作。最后的展示也非常热闹,我们充分介绍了自己的工作,也了解了其它研究机构最新的研究成果。
值得一提的是,在会上我们见到了我们组已经毕业的米海涛博士和宋林峰师兄,他们都有不错的研究,大家交流和探讨了彼此的工作,并合影留念。
这次会议为期五天,从tutorial,到论文报告,到海报展示,我们一方面感受到神经网络和深度学习在自然语言处理领域发展势头强劲,已占有大半壁江山,另一方面也看到参会的中国学者越来越多,表明有更多的中国人在自然语言处理领域的工作得到了国际上的认可。