0
本文作者: AI科技评论 | 2020-04-15 11:48 | 专题:ACL 2019 |
2020年4月3日,备受瞩目的NLP顶会 ACL 2020 公布了录用论文情况。本届ACL 共收到 3429 篇投稿,相比于去年增加了500多篇,尽管接收论文数量还没有统计,但相比于去年必然将只多不少。作为国内顶尖的自然语言处理团队之一,哈工大社会计算与信息检索研究中心 (HIT-SCIR) 不负所望,延续8篇 EMNLP 2019 ,8篇 AAAI 2020 之后,在这次 ACL 2020 中再次有 8 篇论文录用,且皆为 long paper。国内顶尖,当之无愧!
为促进学术交流,让更多师生及时了解最新前沿研究,AI科技评论联合 HIT-SCIR,重磅推出「ACL 2020 -哈工大系列论文解读」,其中包括两场直播,一场录播,以及多篇文字解读内容。
在4月16日,将首先推出一场有关「对话系统」的直播。主讲人为著名青年学者车万翔教授高徒覃立波,他的分享主题为「多领域端到端任务型对话系统」。覃立波目前在西湖大学张岳教授的组里访问,因此这项工作也有张岳教授的指导在。
紧随其后,也将在4月17日,推出车万翔教授另一名高徒侯宇泰的直播,其工作探究了少样本槽位提取问题(Few-shot Slot-Tagging)。此次直播,他将分享针对few-shot序列预测任务带来的建模序列标签依赖等独有挑战,给出全新的方法。
除此之外,我们也将通过录播形式展示刘挺教授和张伟男副教授共同指导的博士生宋皓宇的研究工作,主题为「生成、删除和重写:提高对话生成中人物角色一致性的三阶段框架」,听着就很带感。简单来说便是,提出一个全新的三阶段对话生成框架,解决对话过程中角色一致性问题。
上述三场直播/录播的论文简介如下:
1、题目:Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog
作者:覃立波,徐啸,车万翔,张岳,刘挺
摘要:最近,端到端的任务型对话系统的研究已经取得了巨大的成功。但是,大多数神经网络模型都依赖于大量的训练数据,这些数据往往局限于一些特定的领域,例如导航和查询天气等领域。这使得现有模型很难泛化到标注数据以外的新领域下。并且,如何有效利用源领域的标注数据来提升较少标注数据的新领域,或者是没有标注数据的新领域的性能,这样的工作很少。因此,我们首次在端到端任务型对话系统中提出一个shared-private 框架去显式学习领域特有的和领域共享的知识。此外,我们提出了一种新颖的动态融合网络(DF-Net)来动态探索目标领域与每个领域之间的相关性。在两个公开的数据集上的实验结果表明我们的模型不仅达到SOTA性能,并且,在few-shot的场景下,我们模型的性能要比之前的最佳模型平均高13.9% F1 score,这进一步验证了我们模型的可迁移性。
2、题目:Few-shot Slot Tagging with Collapsed Dependency Transfer and Label-enhanced Task-adaptive Projection Network
作者:侯宇泰,车万翔,赖勇魁,周之涵,刘一佳,刘晗,刘挺
摘要:在本文中,我们研究了少样本槽位提取问题(Few-shot Slot-Tagging)。与其他广泛研究的少样本问题相比,少样本槽位提取面临着“建模标签间依赖关系”的独特挑战。但是,由于不同领域间存在标签集的差异,我们很难将先前学习的标签依赖应用于新的领域。为了解决这个问题,我们在CRF中引入了折叠的依赖关系迁移机制(Collapsed Dependency Transfer),通过建模抽象的标签依赖关系来实现这种迁移。在小样本和元学习的情景下,CRF的发射概率可以用利用度量学习得到:计算为单词与每个标签类别的相似度。为了计算这种相似性,我们在近期的图像小样本分类模型TapNet基础上,利用标签名称语义来表示标签,提出了一种标签增强的任务自适应投影网络(L-TapNet)。实验结果表明,我们的模型在1-shot实验中以14.14 F1的分数明显优于最强现有相关系统。
3、题目:Generate, Delete and Rewrite: A Three-Stage Framework for Improving Persona Consistency of Dialogue Generation
作者:宋皓宇,王琰,张伟男,刘晓江,刘挺
摘要:在对话过程中保持一致的角色属性信息对人类来说是很容易的,但对机器来说,这仍然是一项有待探索的任务。近几年,基于角色属性的对话生成任务被提出来,旨在通过在对话生成模型中加入显式的角色文本来解决属性一致性问题。虽然现有的基于角色的对话生成模型在生成类似人类的回复上取得了成功,但是它们的单阶段解码框架很难避免生成不一致的角色词。在这项工作中,我们提出了一个三阶段的对话生成框架。该框架使用生成-删除-重写机制从生成的原型回复中删除不一致的词语,然后进一步将其改写为属性信息一致的回复。我们通过人工评价和自动指标进行了评估。在PersonaChat数据集上的实验表明,我们的方法获得了非常好的性能。
如何上课?
扫码关注[ AI研习社顶会小助手(AIyanxishe2) ] 微信号,发送关键字“ACL 2020+直播”,即可进群观看直播和获取课程资料。
ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为促进学术交流,方便国内师生提早了解自然语言处理(NLP)前沿研究,AI 科技评论将推出「ACL 实验室系列论文解读」内容,同时欢迎更多实验室参与分享,敬请期待!
雷峰网版权文章,未经授权禁止转载。详情见转载须知。