当前位置: 首页 > 编程日记 > 正文

必读:ICLR 2020 的50篇推荐阅读论文

640?wx_fmt=jpeg

来源 | 香侬科技

本文整理了ICLR2020的相关论文,此次分享的是从Openreview中选取的部分论文,共50篇,其中大部分为NLP相关。文中涉及的相关论文推荐指数与推荐理由仅为个人观点,利益无关,亦不代表香侬科技立场。希望大家可以从中获得启发。
推荐指数4.0论文

论文1
Reducing Transformer Depth on Demand with Structured Dropout
https://openreview.net/pdf?id=SylO2yStDr

640?wx_fmt=png

推荐说明:还是那个问题,Transformer、BERT等模型太大,我们想要给模型瘦身而效果不减。

本文提出使用LayerDrop——随机丢弃一些层,来给模型减肥。这种Drop方法既可以起到正则化的效果,更重要的是,它可以无痛剪枝,不需要再次微调,一劳永逸,简直令人激动。

推荐理由:方法非常优雅,在多个任务上的实验也表明了这种方法的有效性,怎一个好字了得。

推荐指数:4.0

论文2
On Layer Normalization in the TransformerArchitecture
https://openreview.net/pdf?id=B1x8anVFPr

640?wx_fmt=png

推荐说明:我们知道,在原始的Transformer中,Layer Norm在跟在Residual之后的,我们把这个称为Post-LN Transformer。

而且用Transformer调过参的同学也知道,Post-LN Transformer对参数非常敏感,需要很仔细地调参才能取得好的结果,比如必备的warm-up学习率策略,这会非常耗时间。

所以现在问题来了,为什么warm-up是必须的?能不能把它去掉?

本文的出发点是:既然warm-up是训练的初始阶段使用的,那肯定是训练的初始阶段优化有问题,包括模型的初始化。

从而,作者发现,Post-LN Transformer在训练的初始阶段,输出层附近的期望梯度非常大,所以,如果没有warm-up,模型优化过程就会炸裂,非常不稳定。

既然如此,本文作者尝试把LayerNorm换个位置,比如放在Residual的过程之中(称为Pre-LN Transformer),再观察训练初始阶段的梯度变化,发现比Post-LN Transformer不知道好到哪里去了,甚至不需要warm-up,从而进一步减少训练时间,这一结果的确令人震惊。

推荐理由:本文别出心裁,用实验和理论验证了Pre-LN Transformer结构不需要使用warm-up的可能性,其根源是LN层的位置导致层次梯度范数的增长,进而导致了Post-LN Transformer训练的不稳定性。

本文第一次将warm-up、LayerNorm、gradient和initialization联系起来,非常值得一读!

推荐指数:4.0

推荐指数3.5论文

论文3
Copy That! Editing Sequences by CopyingSpans
https://openreview.net/pdf?id=SklM1xStPB

640?wx_fmt=png

推荐说明:对于文本修改任务如纠错,SEQ2SEQ方法其实并不好,这是因为大部分文本没有错,只需要单纯copy即可。

本文基于大篇幅copy现象提出copy spans方法去动态地修改序列。方法非常简单,但在代码修复、语法纠错任务上表现很好。

推荐理由:方法简洁有效,未来有很大的扩展空间。

推荐指数:3.5

论文4
SuperBloom: Bloom Filter MeetsTransformer
https://openreview.net/pdf?id=SJxy5A4twS

640?wx_fmt=png

推荐说明:Bloom Filter是用来判定一个元素“是否一定不在集合”中的方法,也就是说,BF只有两种结果:可能在与一定不在。BF使用的是哈希表方法。

另一方面,词向量表一般非常大,这会降低训练和推理的效率。本文在Transformer中使用BF算法,对词向量矩阵大幅瘦身,并且在多个实验上达到Recall的提升。

推荐理由:方法非常有趣,效果也很明显。

推荐指数:3.5

论文5
Calibration, Entropy Rates, And Memory inLanguage Models
https://openreview.net/pdf?id=B1eQcCEtDB

640?wx_fmt=png
推荐说明:本文集中回答一个问题:语言模型生成句子的长距离依赖和真实语言的长距离依赖之间应该如何比较。以往的度量是用熵率衡量,越小越好。

但是,GPT-2尽管实现了23.7的PPL,它的熵率却达到了61.2,这说明这两个指标并不是在说同一件事。本文提出一种基于校准的方法检测和修正语言模型长距离依赖和真实分布之间不一致问题。

推荐理由:本文有助于学界重视LM中长距离依赖和future-aware的问题。

推荐指数:3.5

论文6
DEFINE: Deep Factorized Input WordEmbeddings for Neural Sequence Modeling
https://openreview.net/pdf?id=rJeXS04FPH

640?wx_fmt=png
推荐说明:还是那个问题,词典太大导致首尾两个embedding参数量庞大(实际上也没必要,因为很多词出现频率很低)。

本文提出使用“低维嵌入—>分层分组变换—>高维嵌入”的方法降低参数量,直接把Transformer-XL的参数化降一半。

在WikiText-103和PTB上的实验表明,参数量大幅减少的同时效果却不差;在WMT2014 En-De上的实验表明,参数量的降低是显著的。

推荐理由:这种方法真的挺优雅的,感觉还可以改进,比如把FFN换成Attention和Conv啥的魔改一下。

推荐指数:3.5

论文7
Understanding Knowledge Distillation inNon-Autoregressive Machine Translation
https://openreview.net/pdf?id=BygFVAEKDH

640?wx_fmt=png

推荐说明:之前我们给大家写了一个简单的NAT的介绍(打个广告:
https://zhuanlan.zhihu.com/p/73417154)。

其中基本都使用到了知识蒸馏(就是用teacher模型的输出当作NAT模型的输出目标),但是为什么非要这么做呢?难道用有噪音的输出不会效果更差吗?

本文使用大量实验告诉我们:蒸馏降低了NAT模型的条件熵。基于此,本文还提出了几种进一步提高NAT效果的方法,已经和AT效果差不多了。

推荐理由:知识蒸馏恐怖如斯!

推荐指数:3.5

论文8
Encoder-Agnostic Adaptation forConditional Language Generation
https://openreview.net/pdf?id=B1xq264YvH

640?wx_fmt=png

推荐说明:众所周知,对于非生成类任务,大型预训练模型已经成为刷SOTA的标配,但是怎么把预训练用到语言生成上去呢?

本文提出了三种encoder-agnostic的方法,将任一encoder得到的特征表示送入decoder并生成相应任务的句子。这里的encoder是具体任务相关的、随机初始化的。

而这三种方法的区别在于,decoder的不同部分有不同的初始化,但总的来说都分为使用预训练模型初始化或随机初始化。整个模型使用监督方法训练。在多个生成任务上的实验表明,这种方法的确可以显著提高生成效果。

推荐理由:方法简单、有效、通用。

推荐指数:3.5

论文9
Combiner: Inductively Learning TreeStructured Attention in Transformers
https://openreview.net/pdf?id=B1eySTVtvB

640?wx_fmt=png
推荐说明:本文使用了Sparse Attention和Hierarchical Attention Block的方法去得到句子的语法树,只需要对Transformer稍作修改,就可以取得相当好的结果。

和前一篇GrammarInduction文章不同,本文注重得到句子结构,也就是语法树,而前者注重语法规则。

推荐理由:效果是真的不错,方法也很优雅,推荐阅读。

推荐指数:3.5
论文10
Encoding Word Order in Complex Embeddings
https://openreview.net/pdf?id=Hke-WTVtwr

640?wx_fmt=png

推荐说明:本文提出一种通用的基于复数的方法去直接导出词向量,从而综合了词向量和位置向量,还可以表示词之间的相对距离。

而且Transformer中的positional embedding和word embedding结合方式可以看作是本文方法的一种特殊情况。在多个任务上的实验表明了这种方法的有效性。

推荐理由:复数空间非常有趣,很有发展潜力。

推荐指数:3.5

论文11
Large-scale Pretraining for NeuralMachine Translation with Tens of Billions of Sentence Pairs
https://openreview.net/pdf?id=Bkl8YR4YDB

640?wx_fmt=png

推荐说明:本文在40B的超大数据上验证了NMT模型的效果,并且提出了一种平衡数据集利用和预训练效率的方法。

实验结果表明,大规模预训练的确可以显著提高NMT效果,而且也从经验上验证了在大语料下大模型的必要性。我们在WMT17 Ch-En上实现了32.3的BLEU值,达到新的SOTA。

推荐理由:本文简直是暴力出奇迹的典范,虽然暴力,但是也确实验证了数据集和模型大小的有用性,还提出了大力下的训练方法,为广大“贫穷”的科研人员开辟了一条研究的路。

推荐指数:3.5
推荐指数3.0论文
论文12
An Exponential Learning Rate Schedule forBatch Normalized Networks
https://openreview.net/pdf?id=rJg8TeSFDH

640?wx_fmt=png

推荐说明:这是一篇无关NLP的论文。本文提出了一个每次乘以(1+a)的指数递增学习率schedule方法,并在数学上证明它等价于BN + SGD + WD + Momentum + Standard Rate Tuning。

本文的出发点基于各种Normalization方法的scale-invariant性质:rescale模型的参数不会改变模型的预测结果。

因此,本文的方法可以总结为:(在使用如BN的Normalization方法的模型上)将初始学习率调为一个合适的值(如0.1),然后以(1+a)指数增长;当验证集的loss不再降低之后,再以(1+b,b<a)的指数增长学习率;重复这个过程直到收敛。在CNN和ResNets上的实验表明了这种方法的真实性(有效性还需要更多实验证明)。

推荐理由:本文突破了以往的固有想法——学习率要不断下降,从理论上验证了在Normalization下学习率指数上升的等价性,具有一定新颖性。

推荐指数:3.0

论文13
Improving the Gating Mechanism of Recurrent Neural Networks
https://openreview.net/pdf?id=r1lnigSFDr

640?wx_fmt=png

推荐说明:各种模型内的门控机制期望可以动态地实现信息的更迭,保留重要的信息而丢弃不重要的信息。

从BP的角度看,保留信息实际上是梯度的保留,也就是接近函数的饱和区域(梯度约为1,也即函数值接近0或1)。但问题是,一旦接近饱和区域,模型实际上很难建模长距离信息。

本文使用两种方法缓解这些问题:(1)对遗忘门初始化为[0,1]上的均匀分布;(2)提出一个refine gate。在多个任务的实验验证了这种方法的有效性。

推荐理由:本文探究了一系列门控方法,并且提出了一种新的门控方法——UR-LSTM,可以更好地建模长距离依赖。另外,本文的实验图很好看。

推荐指数:3.0

论文14
Masked Translation Model
https://openreview.net/pdf?id=HygaSxHYvH

640?wx_fmt=png

推荐说明:长期以来,机器翻译都是基于seq2seq架构和AR生成。

本文提出的Masked Translation Model把编码器和解码器融合在一起,基于Mask方法,既可以AR生成,也可以Non-AR生成,还提供多种解码策略,非常flexible,可以看作一种更通用的KERMIT模型。

推荐理由:这种翻译方法近来非常流行,本文继续提高了这种方法的翻译结果,不但可以做翻译,甚至可以做LM、Text Editing等,很方便。

推荐指数:3.0

论文15
Multichannel Generative Language Models
https://openreview.net/pdf?id=r1xQNlBYPS

640?wx_fmt=png

推荐说明:本文提出了一个改进的KERMIT模型,用于建模多语言(这里称为多channel)的联合分布,如此既可以进行条件生成(如MT),也可以进行无条件生成(直接生成句子),不但可以AR生成,也可以Non-AR生成,功能丰富。

推荐理由:再次强调这种通用模型,是非常厉害的!

推荐指数:3.0

论文16
Semi-Supervised Named Entity Recognitionwith CRF-VAEs
https://openreview.net/pdf?id=BkxnKkrtvS

640?wx_fmt=png

推荐说明:本文独具匠心地把CRF和VAE相融合去做半监督下的NER。

标准情况下的NER是编码器->CRF->输出标签,而本文还加入了未标注文本,把CRF当成一种近似后验加入优化ELBO,从而实现半监督下的模型学习。实验证明了这种方法具有一定有效性。

推荐理由:方法很有趣,但不太优雅。

推荐指数:3.0
论文17
A Probabilistic Formulation ofUnsupervised Text Style Transfer
https://openreview.net/pdf?id=HJlA0C4tPS

640?wx_fmt=png

推荐说明:本文以一种概率生成模型的角度去分析无监督文本风格迁移,在没有平行语料的情况下,训练两个领域的隐平行句子。

然后使用两个LM先验模型+两个共享参数的领域转换模型直接去建模整体联合分布,然后使用ELBO优化模型。在多个数据集上的实验结果表明本文的方法可以提高Acc和BLEU值。

推荐理由:以一种概率分布的视角搭建起了无监督文本风格迁移各种方法的桥梁,可以读一下。

推荐指数:3.0

论文18
Word Embedding Re-Examined: Is theSymmetric Factorization Optimal?
https://openreview.net/pdf?id=HklCk1BtwS

640?wx_fmt=png
推荐说明:本文从理论上分析了word embedding具有一些良好性质的原因,本质上是共现矩阵到嵌入空间的低秩变换,这使得词之间的相对距离得以保留,从而共现矩阵有的性质,word embedding也得以继承。

推荐理由:本文的证明过程具有一定的指导意义。

推荐指数:3.0

论文19
Learning to Contextually AggregateMulti-Source Supervision for Sequence Labeling
https://openreview.net/pdf?id=HJe9cR4KvB

640?wx_fmt=png
推荐说明:本文学习了一个聚合同一任务不同数据源数据的序列标注模型,可以通过这种方法缓解数据内标注分布偏移和噪声的问题,也可以用于学习跨领域的数据。

推荐理由:方法简单,效果不错,跨领域学习也有吸引力。

推荐指数:3.0

论文20
BERTScore: Evaluating Text Generationwith BERT
https://openreview.net/pdf?id=SkeHuCVFDr

640?wx_fmt=png
推荐说明:BERT既然这么牛逼,为什么不能用它作为一种度量标准呢?直接把生成句子和参考句子怼进BERT,然后计算token之间的cos相似度,然后用一个max-pool,再玄学算一下,暴力有效,因吹斯听!

推荐理由:据说和人类评估更接近,而且也比较鲁棒(这篇文章好像是某会被拒了,重投ICLR)。

推荐指数:3.0

论文21
Parallel Neural Text-to-Speech
https://openreview.net/pdf?id=BJeFQ0NtPS

640?wx_fmt=png
推荐说明: 传统的TTS一般是follow了一个多流程的pipeline,近年来基于深度学习的方法使用的是seq2seq,比如WaveNet、ClariNet等。

本文提出ParaNet,一种Non-AR的TTS方法,直接提取Mel频谱,再使用Attention蒸馏,速度很快,效果不错。

推荐理由:文本转语音的研究比较少,可以拿出来给大家复(预)习下。

推荐指数:3.0

论文22
Contextual Text Style Transfer
https://openreview.net/pdf?id=HkeJzANFwS

640?wx_fmt=png
推荐说明:本文介绍了一种新的任务:上下文相关文本风格迁移。所谓上下文相关,就是在迁移的时候要保持上下文语义的一致性,这就在单纯的文本风格迁移上多了一层要求。

本文提出的方法基于半监督,使用了多个损失,比较复杂,但是不难理解,效果却也不错。

推荐理由:挖了个新坑,妙啊。

推荐指数:3.0

论文23
Are Transformers Universal Approximationsof Sequence-to-Sequence Functions?
https://openreview.net/pdf?id=ByxRM0Ntvr

640?wx_fmt=png

推荐说明:本文从理论上证明了:Transformer是一个支持连续和置换不变性序列到序列函数的通用近似器,只要有足够好的positional embedding。

此外,本文还发现把self-attention替换成其他的一些上下文映射函数可以取得更好的效果。

推荐理由:满页的公式,还是你们来。

推荐指数:3.0

论文24
TABNET: Attentive Interpretable TabularLearning
https://openreview.net/pdf?id=BylRkAEKDH

640?wx_fmt=png

推荐说明:本文提出使用sequential attention去建模表格型数据,适用于各种分类和回归任务。

推荐理由:Kaggle福利,现成模板,童叟无欺。

推荐指数:3.0

论文25
Mixout: Effective Regularization toFinetune Large-Scale Pretrained Language Models
https://openreview.net/pdf?id=HkgaETNtDB

640?wx_fmt=png

推荐说明:本文提出一种新的用于微调预训练模型的L2正则化方法:mixout。

所谓mixout,就是在微调的整个过程中,动态地融合两个阶段模型的参数的方法,这样可以使得微调渐次进行,不至于导致效果的崩塌。在GLUE几个任务上的实验验证了该方法的有效性。

推荐理由:方法挺有趣,可以进一步推广到其他任务看看效果。

推荐指数:3.0

论文26
Language GANs Falling Short
https://openreview.net/pdf?id=BJgza6VtPB

640?wx_fmt=png

推荐说明:评价一个模型生成句子的效果有两方面的指标:质量和多样性。只重视前者而忽略后者会导致exposure bias,尤其对于像GAN这种生成模型。

本文创造性地使用temperature作为一种评估模型quality-diversitytrade-off的指标。通过这种方法,作者发现基于MLE的生成模型在quality/diversity上都超过了基于GAN的方法。

推荐理由:很有意思的文章,不过GAN真的是弟弟?

推荐指数:3.0

论文27
Unifying Question Answering, TextClassification, and Regression via Span Extraction
https://openreview.net/pdf?id=HketzTNYwS

640?wx_fmt=png

推荐说明:用BERT去做QA、文本分类和回归任务时,都是使用的最后一层单元的Span(或长或短),本文认为可以把这些任务综合起来进行。

对QA,按照原BERT处理,直接抽取即可;对文本分类,在文本前加上“positive ornegative”,然后让模型去判别“positive/negative”对应位置的span即可。

对句对分类,在文本前加上“entailment, contradictionor neutral”;对回归问题,直接对可能的值均匀分割成一些离散的值。

使用这种方法,我们有望把这些任务合在一种模型里,减少了模型的设计量,并且如果做成多任务,还可以提高有限数据量下的效果。

推荐理由:本文来自Salesforce论文小分队,不用我多说了嗷。

推荐指数:3.0

论文28
Are Pre-trained Language Models Aware ofPhrases? Simple but Strong Baselines for Grammar Induction
https://openreview.net/pdf?id=H1xPR3NtPB

640?wx_fmt=png

推荐说明:本文提出直接从预训练的语言模型中提取语法结构成分,形成语法树。

本文提出直接从Transformer-like的预训练语言模型中,利用其多头机制,直接提取各种短语结构,包括动词短语、名词短语、副词短语等。

本文在英语语法推导任务上验证了该方法的有效性,可以作为一个很强的baseline。

推荐理由:不再训练,不用规则!语法推导,点击就送!

推荐指数:3.0
论文29
Dynamically Pruned Message PassingNetworks for Large-scale Knowledge Graph Reasoning
https://openreview.net/pdf?id=rkeuAhVKvB

640?wx_fmt=png

推荐说明:知识图谱推理最近变得很火,这其实也是一个有巨大潜力的方向。以往的研究大多是给出一个推理路径(path-based)。

本文提出一种更灵活、更具解释力的方法,能够在推理的同时进行网络图剪枝得到子图(sub-graph),提高大规模知识图谱下的推理效率。

本文采用了attention、consciousness prior等多种方法,十分novel。

推荐理由:新的推理方法,有探索价值。

推荐指数:3.0

论文30
An Empirical Study on Post-ProcessingMethods for Word Embeddings
https://openreview.net/pdf?id=Byla224KPr

640?wx_fmt=png

推荐说明:本文又是一篇偏理论的文章,研究了词向量的后处理方法,把这种方法视为对Gram矩阵的缩放。

两个词向量集应该满足各向同性缩放,从而中心核对齐(CKA)可以作为一种度量,因此我们目标就是去最大化这个相似性度量。

为此,本文提出在半黎曼流形(semi-Riemannian manifold)上优化,并且scale了其中的单位矩阵。实验表明本文的方法具有一定效果。

推荐理由:本文的词向量后处理方法看似很复杂,但实际上作者给出了步骤,还是非常直观的。

推荐指数:3.0
论文31
Reinforcement Learning BasedGraph-to-Sequence Model for Natural Question Generation
https://openreview.net/pdf?id=HygnDhEtvr

640?wx_fmt=png

推荐说明:作为一个NLP中比较小众的领域,问题生成(QG)可以说是小众中偏困难的了。它比QA难在,它是一个纯粹的文本生成任务,而QA一般是作为分类任务。

本文首先提出一个对齐网络进行词层面和隐层层面的对齐;然后使用一个双向的图到序列生成器获得进一步的特征表示;最后使用一个RNN解码器生成句子。

而且,本文还使用了CE损失和RL损失相结合的方法保证语法和语义的兼顾。

推荐理由:本文提出了一个基于RL损失的Graph2Seq模型用于QG,实验效果也是杠杠的。

推荐指数:3.0
论文32
Topology of Deep Neural Networks
https://openreview.net/pdf?id=SkgBfaNKPr

640?wx_fmt=png

推荐说明:本文认为,从拓扑学的角度看,深度模型实际上是把拓扑上非常复杂的数据转化为简单的拓扑结构,使得在输出的时候线性可分,并且ReLU会使得这种简化过程更快。

推荐理由:把深度学习模型置于拓扑学的观点下,给出了解释深度学习模型的一个非常直观的途径。

推荐指数:3.0

推荐指数2.5论文

论文33
Toward Controllable Text ContentManipulation
https://openreview.net/pdf?id=Skg7TerKPH

640?wx_fmt=png

推荐说明:表格转文本和受限文本生成是近期比较火热的议题,把二者结合起来又如何呢。

本文提出受限表格转文本生成方法,对给定表格和一个参考句,模型需要生成一段文本,文本的内容是描述表格,但风格却是参考句。

在这种设置下,本文首先构建了两个专门的数据集,然后使用seq2seq+attention+copy+reconstruction的方法训练模型。

推荐理由:本文的出发点比较有趣,提出了一个简单实用的模型结构,并且结合了表格转文本和文本风格迁移两大主题,可以阅读。

推荐指数:2.5

论文34
A Syntax-Aware Approach for UnsupervisedText Style Transfer
https://openreview.net/pdf?id=Bkll_kHFPB

640?wx_fmt=png

推荐说明:本文提出把预测语法标签作为附加任务去做无监督的文本风格转换,

损失还有三个:reconstruction, back-translation和discrimination。在几个常用数据集的实验上取得了一致的提高。

推荐理由:这种语法多任务可以看作一种防止过拟合的手段,出乎我意料的是,效果竟然还不错。

推荐指数:2.5

论文35
Compressive Transformers for Long-RangeSequence Modeling
https://openreview.net/pdf?id=SylKikSYDH

640?wx_fmt=png

推荐说明:LSTM不能建模长距离序列,Transformer存储代价又太大,Transformer-XL会把很旧的单元丢掉,基于此,本文提出把Transformer-XL中要丢弃的部分压缩,当作一种“压缩记忆”。

怎么压缩呢?用花式CNN和Pooling……当然了,本文还提出一个新的数据集——PG-19,在这个数据集、WikiText-103和Enwiki8上达到SOTA。

通过各种实验,本文证明了对超长文本建模,CompressedTransformer的确表现最好。

推荐理由:方法简单,但是有效呀!

推荐指数:2.5
论文36
Contextual Temperature for LanguageModeling
https://openreview.net/pdf?id=H1x9004YPr

640?wx_fmt=png

推荐说明:在softmax中使用temperature已经是一个基本操作了,但是之前的温度设置要么全程固定,要么随训练保持规律地变化。

本文认为,温度大小应该和上下文有关,从而使用当前步的上文学习一个对当前步的温度,在MoS上进行LM实验,并且采用了多个正则项。大概有2个点的PPL提升。

推荐理由:其实温度和上下文相关还是很有道理的,但是本文的方法比较简单,好在实验还做得不错。

推荐指数:2.5

论文37
On Variational Learning of ControllableRepresentations for Text without Supervision
https://openreview.net/pdf?id=Hkex2a4FPr

640?wx_fmt=png

推荐说明:本文分析了使用VAE控制无监督文本生成的困难所在——后验空间的潜在空缺(latent vacancy)问题。

由此,本文提出使用两个损失项将后验高斯均值映射到一个受限空间中,从而鼓励该空间能够被“填满”,进行更好的优化。

这两个损失,一是结构化重构损失——一种max margin方法把目标往两个方向推,二是正则项——约束embeddingmatrix为正交。

推荐理由:方法简单,效果尚可。

推荐指数:2.5

论文38
Neural Markov Logic Networks
https://openreview.net/pdf?id=SkeGvaEtPr

640?wx_fmt=png

推荐说明:马尔科夫逻辑网络(MLN)是一种将一阶逻辑和概率图模型相结合的统计学习方法。

本文提出的神经马尔科夫逻辑网络(NMLN)不需要显式地指定一阶逻辑规则,而通过神经网络隐式地学习。在知识库填充和分子数据生成的实验上取得显著效果。

推荐理由:看起来很厉害,有空学习下。

推荐指数:2.5

论文39
EINs:LongShort-Term Memory with Extrapolated Input Network Simplification
https://openreview.net/pdf?id=B1l5m6VFwr

640?wx_fmt=png

推荐说明:本文通过改写LSTM和GRU的方程,将它们作为一种动态Hopfield网络,推出一种参数更少的RNN结构——EINS。

推荐理由:虽然参数少了,但是更复杂了呢。

推荐指数:2.5
推荐指数2.0论文

论文40
Faster and Just as Accurate: A SimpleDecomposition for Transformer Models
https://openreview.net/pdf?id=B1gKVeBtDH

640?wx_fmt=png

推荐说明:尽管Transformer和BERT如此成功,但是训练它们需要耗费巨量的时间。

本文认为,我们不需要在self-attention的时候使得每个token去关注所有的token,一部分就够了。

由此,本文提出前k层分成两部分,各自self-attention,剩下的层再合起来self-attention,并且使用了知识蒸馏和层级相似度减少信息损失。在QA和句子相似度分类任务上的实验验证了这种方法的高效率和低损耗。

推荐理由:显卡燃烧的味道不香吗?

推荐指数:2.0

论文41
Incorporating BERT into Neural MachineTranslation
https://openreview.net/pdf?id=Hyl7ygStwB

640?wx_fmt=png

推荐说明:如何把预训练模型,如BERT融入到MT中是自BERT诞生以来的问题。

不直接使用BERT初始化模型,本文是把BERT的输出融入到SEQ2SEQ模型的每一层,用在每个self-attention之中。

此外,本文还提出drop-net——随机丢弃BERT表示或模型本身的表示,充分利用两个方面的信息。实验结果还不错。

推荐理由:本文可以算是成功地把BERT加入到了MT中,方法比较奇特,但是还不够优雅。

推荐指数:2.0

论文42
Robustness Verification for Transformers
https://openreview.net/pdf?id=BJxwPJHFwS

640?wx_fmt=png

推荐说明:本文给Transformer提出了首个鲁棒性验证方法,从理论和实验两个方面给出了界,并通过这种方法分析了情感分析中不同词的重要性。

推荐理由:来点偏理论的研究增增味。

推荐指数:2.0

论文43
On Predictive Information Sub-Optimalityof RNNs
https://openreview.net/pdf?id=HklsHyBKDr

640?wx_fmt=png

推荐说明:现实世界中,人之所以如此智能,就是因为人能够记住很久之前的信息,从而能够帮助预测未来,而各种RNN从形式上好像也是记住过去,预测未来。

然而本文通过两个数据集上的实验表明,RNN简直弱爆了。

推荐理由:本文其实不太偏CS,算是给RNN的缺点提供了另外一种视角。

推荐指数:2.0

论文44
MUSE: Multi-Scale Attention Model forSequence to Sequence Learning
https://openreview.net/pdf?id=SJe-3REFwr

640?wx_fmt=png

推荐说明:本文认为,像Transformer这样的模型对于建模长距离语义依然存在困难,从而提出多种建模方式(Attention、Dynamic Conv、FFN)平行计算,然后再聚合起来的方法。实验结果出乎意料地不错。

推荐理由:为什么不在WMT14 En-De上做呢?

推荐指数:3.0

论文45
Dropout: Explicit Forms and Capacity Control
https://openreview.net/pdf?id=Bylthp4Yvr

640?wx_fmt=png

推荐说明:本文回答了一个问题:dropout是如何控制模型的容量的。本文通过一些数学推导给出了dropout下深度模型的泛化界,并在多种任务上进行了实验。

推荐理由:又是一篇数学学渣杀手,不过已经相对容易了。

推荐指数:2.0

论文46
Mitigating Posterior Collapse in StronglyConditioned VAE
https://openreview.net/pdf?id=rJlHea4Kvr

640?wx_fmt=png

推荐说明:对于有很强条件的CVAE,decoder往往会忽略隐变量,使得模型退化为一个AE模型。

本文发现,这种情况发现的原因之一是条件变量的融入方式:直接concat。本文提出一种新的重参数方法使得条件变量和隐变量能够更好地融合,缓解后验坍塌问题。

推荐理由:本文融合两个变量的方法比较巧妙,值得学习。

推荐指数:2.0

论文47
SSE-PT: Sequential Recommendation viaPersonalized Transformer
https://openreview.net/pdf?id=HkeuD34KPH

640?wx_fmt=png

推荐说明:使用深度学习的方法构建推荐系统是一个正在探索的领域,现在流行的方法是用RNN、CNN加Attention或Transformer模型,比如SASRec模型。

但是这些模型大都不能有个性化的推荐,要么就是效果不太好。本文把item embedding和user embedding结合起来,并使用SSE正则化方法减缓embedding的过拟合现象。

推荐理由:推荐系统还是要介绍一下的。

推荐指数:2.0
推荐指数1.0论文

论文48
Neural Phrase-to-Phrase MachineTranslation
https://openreview.net/pdf?id=S1gtclSFvr

640?wx_fmt=png

推荐说明:本文提出一种新的短语到短语的机器翻译方法,使用短语层级的attention,然后用greedy或beam 的方法decode,再结合一个记忆力模块,实现了与Transformer相较的结果。

推荐理由:看个新鲜也是看。

推荐指数:1.0
论文49
Lossless Single Image Super Resolutionfrom Low-Quality JPG Images
https://openreview.net/pdf?id=r1l0VCNKwB

640?wx_fmt=png

推荐说明:各种不可描述的图片往往会被各种压缩,给广大宅男同志带来很多困扰,要是能得到(无码[划掉])高清图该多好啊!本文对JPG图像进行分辨率修复,算法简单,有没有效不知道。

推荐理由:我选择无损图像。

推荐指数:1.0
推荐指数0.5论文
论文50
Emergence of Functional and StructuralProperties of the Head Direction System by Optimization of RNN
https://openreview.net/pdf?id=HklSeREtPB

640?wx_fmt=png

推荐说明:这篇什么意思,求懂的同学讲解一下……

推荐理由:

推荐指数:0.5

(*本文为 AI科技大本营转载文章,转载联系作者

公开课推荐




640?wx_fmt=png

推荐阅读

相关文章:

14个Xcode中常用的快捷键操作

在Xcode 6中有许多快捷键的设定可以使得你的编程工作更为高效&#xff0c;对于在代码文件中快速导航、定位Bug以及新增应用特性都是极有效的。 当然&#xff0c;你戳进这篇文章的目的也在于想要快速的对代码文件进行操作&#xff0c;或者是让Xcode的各面板更为适应你小本子的屏…

C++中标准模板库std::pair的实现

以下用C实现了标准模板库中的std::pair实现&#xff0c;参考了 cplusplus 和 vs2013中的utility文件。关于std::pair的介绍和用法可以参考&#xff1a; https://blog.csdn.net/fengbingchun/article/details/52205149 实现代码pair.hpp如下&#xff1a; #ifndef FBC_STL_PAIR_H…

【人在职场】能力与价值

原创作品&#xff0c;允许转载&#xff0c;转载时请务必以超链接形式标明文章 原始出处 、作者信息和本声明。否则将追究法律责任。http://yunli.blog.51cto.com/831344/1547051 最近给团队&#xff08;指#UC浏览器电脑版#开发团队&#xff09;分享了我的《基层技术管理原则》。…

Windows与Linux之间互传文件的方法

以下方法均是以Windows为操作机&#xff1a;1. 通过WinSCP:WinSCP是一款开源的SFTP客户端&#xff0c;运行于Windows系统下&#xff0c;遵照GPL发布。WinSCP除了SFTP&#xff0c;还支持SSH、SCP(SecureCopy Protocol)。WinSCP的开发始于2000年4月&#xff0c;由布拉格经济大学所…

一文读懂简化的图卷积网络GCN(SGC)| ICML 2019

作者 | yyl424525来源 | CSDN博客文章目录1 相关介绍1.1 Simple Graph Convolution (SGC)提出的背景1.2 SGC效果2 Simple Graph Convolution 简化的图卷积2.1 符号定义2.2 图卷积网络GCNGCN vs MLPFeature propagation 特征传播Feature transformation and nonlinear transitio…

iOS UITableViewCell重用问题

TableView的重用机制&#xff0c;为了做到显示和数据分离&#xff0c;iOS tableView的实现并且不是为每个数据项创建一个tableCell。而是只创建屏幕可显示最大个数的cell&#xff0c;然后重复使用这些cell&#xff0c;对cell做单独的显示配置&#xff0c;来达到既不影响显示效果…

NLP常用工具

为什么80%的码农都做不了架构师&#xff1f;>>> NLP常用工具 各种工具包的有效利用可以使研究者事半功倍。 以下是NLP版版友们提供整理的NLP研究工具包。 同时欢迎大家提供更多更好用的工具包&#xff0c;造福国内的NLP研究。 *NLP Toolbox CLT http://compl…

Swift快速入门之getter 和 setter

属性可以用getter和setter方法的形式提供。 <code class"hljs lasso has-numbering" style"display: block; padding: 0px; background-color: transparent; color: inherit; box-sizing: border-box; font-family: Source Code Pro, monospace;font-size:u…

Linux下getopt函数的使用

getopt为解析命令行参数函数&#xff0c;它是Linux C库函数。使用此函数需要包含系统头文件unistd.h。 getopt函数声明如下&#xff1a; int getopt(int argc, char * const argv[], const char * optstring); 其中函数的argc和argv参数通常直接从main的参数直接传递而来。o…

20行Python代码说清“量子霸权”

作者 | 马超 来源 | 程序人生&#xff08;ID:coder_life&#xff09;近日谷歌的有关量子霸权&#xff08;Quantum Supremacy&#xff09;的论文登上了Nature杂志150年刊的封面位置&#xff0c;而再次罢占各大媒体的头条位置&#xff0c;其实这篇文章之前曾经短暂上过NASA的网站…

Android组件系列----BroadcastReceiver广播接收器

​【声明】 欢迎转载&#xff0c;但请保留文章原始出处→_→ 生命壹号&#xff1a;http://www.cnblogs.com/smyhvae/ 文章来源&#xff1a;http://www.cnblogs.com/smyhvae/p/3960623.html 【正文】 一、广播的功能和特征 广播的生命周期很短&#xff0c;经过调用对象-->…

Swift 代码调试-善用XCode工具(UI调试,五种断点,预览UIImage...)

原创Blog&#xff0c;转载请注明出处 http://blog.csdn.net/hello_hwc?viewmodelist 我的stackoverflow 工欲善其事&#xff0c;必先利其器&#xff0c;强烈建议新手同学好好研究下XCode这个工具。比如Build Settings&#xff0c;Build Info Rules&#xff0c;Build Parse…

Linux下getopt_long函数的使用

getopt_long为解析命令行参数函数&#xff0c;它是Linux C库函数。使用此函数需要包含系统头文件getopt.h。 getopt_long函数声明如下&#xff1a; int getopt_long(int argc, char * const argv[], const char *optstring, const struct option *longopts, int *longindex);…

Expect自动化控制简单介绍

telnet&#xff0c;ftp&#xff0c;Passwd&#xff0c;fsck&#xff0c;rlogin&#xff0c;tip&#xff0c;ssh等等。该工具利用Unix伪终端包装其子进程&#xff0c;允许任意程序通过终端接入进行自动化控制&#xff1b;也可利用Tk工具&#xff0c;将交互程序包装在X11的图形用…

C++中标准模板库std::vector的实现

以下实现了C标准模板库std::vector的部分实现&#xff0c;参考了 cplusplus. 关于C中标准模板库std::vector的介绍和用法可以参考 https://blog.csdn.net/fengbingchun/article/details/51510916 实现代码vector.hpp内容如下&#xff1a; #ifndef FBC_STL_VECTOR_HPP_ #defi…

Swift学习 OOP三大特性:继承、多态、封装

先看个例子 从上面的例子可以总结那么一句话:”学生是人”。也就是Student类继承People类。简而言之&#xff0c;学生是人&#xff0c;这句话是说得通的&#xff0c;但是”人是学生”这句话是说不通的&#xff0c;不是学生就不是人了嘛? 从代码中&#xff0c;我们可以看出S…

5折票倒计时3天 | 超干货议程首度曝光!2019 中国大数据技术大会邀您共赴

&#xff08;大会官网https://t.csdnimg.cn/U1wA&#xff09;2019年&#xff0c;大数据与人工智能的热度已经蔓延到了各个领域&#xff0c;智能交通、AIoT、智慧城市&#xff0c;智慧物流、AI中台、工业制造等各种黑科技成为热搜名词。而在今年的乌镇互联网大会上&#xff0c;大…

mysql select * f

mysql> select * from tb;-------------| id | name |-------------| 1 | tbone || 3 | 2d2 || 5 | 55 || 6 | 66 |-------------4 rows in set (0.00 sec)转载于:https://www.cnblogs.com/bashala/p/3974088.html

C++/C++11中用于定义类型别名的两种方法:typedef和using

类型别名(type alias)是一个名字&#xff0c;它是某种类型的同义词。使用类型别名有很多好处&#xff0c;它让复杂的类型名字变得简单明了、易于理解和使用&#xff0c;还有助于程序员清楚地知道使用该类型的真实目的。在C中&#xff0c;任何有效类型都可以有别名。 有两种方法…

iOS学习笔记--01swift实现提示框第三方库:MBProgressHUD

本文使用swift语言使用MBProgressHUD。 开源项目MBProgressHUD可以实现多种形式的提示框。使用简单&#xff0c;方便。GitHud的下载地址是&#xff1a;https://github.com/jdg/MBProgressHUD/ 下载完成后&#xff0c;将MBProgressHUD.h和MBProgressHUD.m拖入已经新建好的Swift项…

2019北京智源大会在京开幕, 中外学术大咖共话人工智能研究前沿

10月31日&#xff0c;由北京智源人工智能研究院主办的2019北京智源大会在国家会议中心开幕&#xff0c;会期两天。智源大会是北京创建全球人工智能学术和创新最优生态的标志性学术活动&#xff0c;定位于“内行的AI盛会”&#xff0c;以国际性、权威性、专业性和前瞻性为特色&a…

linux中登录类型及配置文件

linux中登录shell的类型1.交互式登录&#xff1a;直接通过终端输入用户信息登录1&#xff09;login&#xff1a;2&#xff09;在shell中 su - usernamesu -l username2.非交互式登录1&#xff09;su username2&#xff09;图形界面的终端3&#xff09;执行脚本的过程用户配置文…

Swift项目引入第三方库的方法

分类&#xff1a;iOS&#xff08;55&#xff09; 目录(?)[] Swift项目引入第三方库的方法 转自 http://blog.shiqichan.com/How-To-Import-3rd-Lib-Into-Swift-Project/ 以下&#xff0c;将创建一个Swift项目&#xff0c;然后引入3个库&#xff1a; Snappy 简化autolayout代码…

最新NLP架构的直观解释:多任务学习– ERNIE 2.0(附链接)| CSDN博文精选

作者 | Michael Ye翻译 | 陈雨琳&#xff0c;校对 | 吴金笛来源 | 数据派THU&#xff08;ID&#xff1a;DatapiTHU&#xff09;百度于今年早些时候发布了其最新的NLP架构ERNIE 2.0&#xff0c;在GLUE基准测试中的所有任务上得分均远高于XLNet和BERT。NLP的这一重大突破利用了一…

C++中的内存对齐介绍

网上有很多介绍字节对齐或数据对齐或内存对齐的文章&#xff0c;虽然名字不一样&#xff0c;但是介绍的内容大致都是相同的。这里以内存对齐相称。注&#xff1a;以下内容主要来自网络。 内存对齐&#xff0c;通常也称为数据对齐&#xff0c;是计算机对数据类型合法地址做出了…

__cplusplus的用处

经常在/usr/include目录下看到这种字句&#xff1a; #ifdef __cplusplus extern "C" { #endif ... #ifdef __cplusplus } #endif 不太明白是怎么用的。今天阅读autobook&#xff0c;在第53页看到了作者的解释&#xff1a;C/C编译器对函数和变量名的命名方法不一样…

Linux下的内存对齐函数

在Linux下内存对齐的函数包括posix_memalign, aligned_alloc, memalign, valloc, pvalloc&#xff0c;其各个函数的声明如下&#xff1a; int posix_memalign(void **memptr, size_t alignment, size_t size); void *memalign(size_t alignment, size_t size); void *aligned_…

Swift2.0系列]Error Handling(项目应用篇)

1.FileManager中的应用 倘若你只是想看FileManager中的 Error Handling是如何实现的&#xff0c;请找到3.删除文件以及4.获取文件信息。我分别为你提供了do-catch以及try?的使用方法。 打开Xcode,选中Single View Application&#xff0c;输入项目名称例如FileManagerDemo,点击…

总点第一个视频产生选择偏差?Youtube用“浅塔”来纠正

作者 | Tim Elfrink译者 | Tianyu出品 | AI科技大本营&#xff08;ID:rgznai100&#xff09;【导读】本文来自于谷歌研究人员最近发表的一篇论文&#xff0c;介绍了视频平台 Youtube 的视频推荐方法&#xff0c;并在 RecSys 2019 大会上做了分享。本文总结归纳了一些论文中的重…

HTML样式offset[Direction] 和 style.[direction]的区别

为什么80%的码农都做不了架构师&#xff1f;>>> 以offsetLeft与style.left为例&#xff1a; offsetLeft使用的值是字符串&#xff0c;如“100px", style.left则使用数值&#xff0c;如 100 offsetLeft只可以读&#xff0c;因此用无法通过Js改变这个值实现样…