所有文章 > 正文

今日论文推荐

作者: 学术君 学术咖

时间: 2019-01-04 12:10

ACL 2018 于 7 月 15 日在墨尔本正式开幕,在颁奖仪式前,最佳论文名单已经公布。

今年共选出 3 篇最佳长论文和 2 篇最佳短论文

颁奖仪式上,荣誉论文( 6 篇长文和 2 篇短文)最佳 demo 论文(1 篇)Amazon Door Prize 也一并揭晓。


北京大学、哈尔滨工业大学这两所国内高校在 Amazon Door Prize 上均有上榜。

终身成就奖得主为爱丁堡大学信息学院教授 Mark Steedman。

小编将为大家一一推荐这些论文。

最佳长论文:
Finding syntax in human encephalography with beam search
用束搜索在人脑成像中寻找句法

作者:John Hale,Chris Dyer,Adhiguna Kuncoro,Jonathan R.Brennan

Abstract

Recurrent neural network grammars (RNNGs) are generative models of (tree,string) pairs that rely on neural networks to evaluate derivational choices. Parsing with them using beam search yields a variety of incremental complexity metrics such as word surprisal and parser action count. When used as regressors against human electrophysiological responses to naturalistic text, they derive two amplitude effects: an early peak and a P600-like later peak. By contrast, a non-syntactic neural language model yields no reliable effects. Model comparisons attribute the early peak to syntactic composition within the RNNG. This pattern of results recommends the RNNG+beam search combination as a mechanistic model of the syntactic processing that occurs during normal human language comprehension.

中文摘要:循环神经网络文法(RNNGs)是对于树-字符串对的生成式模型,它们依靠神经网络来评价派生的选择。用束搜索对它们进行解析可以得到各种不同复杂度的评价指标,比如单词惊异数(word surprisal count)和解析器动作数(parser action count)。当把它们用作回归因子,解析人类大脑成像图像中对于自然语言文本的电生理学响应时,它们可以带来两个增幅效果:一个早期的峰值以及一个类似P600的稍迟的峰值。相比之下,一个不具有句法结构的神经语言模型无法达到任何可靠的增幅效果。通过对不同模型的对比,早期峰值的出现可以归功于RNNG中的句法组合。结果中体现出的这种模式表明RNNG+束搜索的组合可以作为正常人类语言处理中的语法处理的一个不错的机理解释模型。

二维码 扫码微信阅读
推荐阅读 更多