「本周值得读」是 PaperWeekly 的优质文章集合地。在这里,来自 NLP、CV、DL 等方向的学习达人,各自用精炼妙语推荐当下最新的高质量文章。
文中经过分析,影响速度最大的因素是图片分辨率,进而总结提高速度的方法有,对输入降采样,对特征降采样,或者进行模型压缩。在这基础上,本文提出的模型利用了低分辨率图片的高效处理和高分辨率图片的高推断质量两种优点。主要思想是:让低分辨率图像经过整个语义网络输出一个粗糙的预测,然后利用文中提出的 cascade fusion unit 来引入中分辨率和高分辨率图像的特征,从而逐渐提高精度。本文还对网络进行了模型压缩,再次提速。最终,该模型能达到实时进行语义分割处理,同时有较高准确率。
不论是基于检索来找 response 还是基于生成来出 response,都需要考虑对话的 context,简单的、没有取舍地将 context 作为 condition 来产生 response 都存在一定的问题。本文提出了一种 weighting model 加入到对话生成模型中,对 context 进行了重要性区分,从而检索出/生成更加合理的 response。各位做 chatbot 应用和服务的同学看看。
文章致力于解决目前 SfM/SLAM 在运动估计和三维重建中存在的问题:1.易受场景中移动物体干扰,2.相机运动和结构估计的解的不唯一性,3.纹理特征较弱情况下的算法稳定性。
文章提出了 SfM-net,该网络以前后两帧图像为输入,支持通过测量误差进行非监督学习,同时支持以相机运动参数、场景深度信息进行监督学习;此外,网络引入了对移动物体的运动估计,并了前后两帧图像前向、后向结构和运动估计的一致性约束;该网络能够以端到端的形式得到三维场景深度、相机运动参数、移动物体运动掩模及其运动参数。
文章在 KITTI、MoSeg 数据集上进行无监督训练并测试,验证了网络在场景深度估计、移动物体运动掩模估计方面的性能;并且验证了移动物体运动掩模的使用能够提升场景深度估计的精度。在 RGB-D SLAM 数据集上,文章以场景深度进行监督学习,通过对比 benchmark,SfM-net 获得了更准确的相机运动参数估计。
本文工作的亮点在于利用“教师-学生”的学习框架,在轴语言的帮助下,对零资源的语言对直接建立翻译模型。从而同时提高了翻译质量和解码效率。本篇工作来自 PaperWeekly 作者团队。
文章首次提出了使用深度学习模型从文本中生成问题的方法。该任务为:给定一个自然语言句子及该句子中的一个连续子串,要求根据该句子生成一个自然语言问题,且其答案为给定的子串。传统方法基本为在句法树上定义规则对其进行变换,较为繁琐且生成问题质量不高。
该文章扩展了 seq2seq 模型,提出利用 feature-rich encoder 将答案信息进行编码,从而生成针对该答案的问题。同时,文章还结合了 pointing 机制以解决低频词问题。在斯坦福的问答数据集(SQuAD)上,该文章在 BLEU-4 自动评测指标与人工标注指标上均显著优于传统的基于规则的方法。
文章基于 SQuAD 数据集,对其进行了处理与分割,发布了一个针对问题生成任务的数据集。该数据集可以在作者主页下载。
「本周值得读」栏目的内容来自 PaperWeekly arXiv 志愿者小组推荐,如果您也是 arXiv 爱好者,愿意一起来丰富 PaperWeekly 的推荐内容,并且培养良好的阅读习惯,就请加入我们吧。请添加下面的微信号,并注明「志愿者+学校+硕士生/博士生+研究方向」,一起来为 AI 领域学术的发展贡献自己的一份力量。
PaperWeekly是一个推荐、解读、讨论、报工智能前沿论文的学术平台。如果你研究或从事AI领域,欢迎在号后台点击「交流群」,小助手将把你带入PaperWeekly的交流群里。
推荐: