世界最大自然语言处理会议获奖论文

2019-11-18 20:00:04 slator

本文共1530个字,阅读需4分钟

阅读模式 切换至双语

尽管香港的许多大型会议因抗议活动而被取消,但学术界的自然语言处理( NLP )社区聚集在香港,参加最新一期全球最大的 NLP 会议—— EMNLP 。 EMNLP 是自然语言处理的实证方法的缩写,它是一个全球研究人员的年度会议。与会者和演讲者聚集在一起,了解 NLP 的最新发展,包括机器翻译。 除了来自顶尖学术机构的定期研究团队外,此次会议还吸引了大型科技公司的大量关注——谷歌( Google )、 Facebook 、百度( Baidu )、苹果( Apple )、 Salesforce 、 eBay 、思科( Cisco )和亚马逊( Amazon )都是此次会议的赞助商。对他们来说, EMNLP 不仅是分享他们自己最新的 NLP 研究成果的机会,而且也是从会议参加者中积极搜寻人才的机会。 每年,在会议召开之前,研究人员都被要求提交论文供会议审议人员审议。通常,在提交的所有文件中,大约四分之一以某种形式被接受到会议中。EMNLP 是一次高风险、高级别的聚会,让研究人员有机会向那些同样关注 NLP 的同行展示他们的最新发现。 《 EMNLP 香港版》名为《 EMNLP-IJCNLP 2019》( IJC Standing for International Joint Conference ),于2019年11月5日至7日举行,有465篇长篇论文、218篇短篇论文和44篇演示论文。仅略低于3,000份申请,比2018年高出37%。 在2019年11月9日举行的闭幕式上, EMNLP 宣布了四项大奖的获奖者:最佳论文、最佳论文亚军、最佳演示文稿和最佳资源论文。 最佳论文奖颁给了来自约翰霍普金斯大学的 Xiang Lisa Li 和 Jason Eisner ,他们的论文专门研究信息瓶颈的单词嵌入(用于解析)。最佳论文奖得主是斯坦福大学的 JohnHewitt 和 PersonyLiang ,他们负责设计和解释带有控制任务的探针。 最佳演示论文奖由来自艾伦人工智能研究所和加州大学欧文分校的一组研究人员获得,他们的关于 AllenNLP 解释: NLP 模型预测框架的论文。 最佳资源论文奖授予了一组机器翻译研究人员,他们的工作探索低资源语言。这篇题为“ FLORES 低资源机器翻译评估数据集: Nepal – Engli 和 Sinhala – English ”的论文由 Facebook Applied Machine Learning 、 FacebookAI Research ( FAIR )、 Sorbone University é s 和 Johns Hopkins 大学的8名研究人员共同撰写。论文的合著者是 Francisco Guzm á n 、 Peng-Jen Chen 、 Myle Ott 、 Juan Pino 、 Guillaume Lample 、 Philipp Koehn 、 Vishrav Chaudary 和 Marc ’ Aurelio Ranzato 。 在机器翻译研究中,低资源语言是一个热门话题,对于 Facebook 、微软( Microsoft )和阿里巴巴( Alibaba )等大型科技公司来说,低资源语言尤为重要。这些公司有自己的动机寻求以美国或以中国为中心的企业很难以有意义的方式深入理解(并生成)语言内容。 奖项由三个独立的委员会决定:一个是最佳论文(和亚军),另一个是最佳资源论文,一个是最佳演示论文。奖项的最初提名来自1700名评审人员、152名地区主席和18名高级地区主席,他们分别提出了五名最佳论文候选人的入围名单和另外五名最佳资源论文候选人的入围名单。

以上中文文本为机器翻译,存在不同程度偏差和错误,请理解并参考英文原文阅读。

阅读原文