语句连贯表达 | Li等(2020) | Transformer | 论文采用预训练模型和微调的方法提出了硬格式诗歌生成模型SongNet,结合模板方法能够生成流畅连贯的诗句[61]。 |
Zhang等(2020) | Transformer | 论文提出了基于预训练和微调方式的天马模型(PEGASUS),在文本摘要生成中取得了显著成效[62]。 |
Peng等(2020) | Transformer | 论文针对少样本场景下的任务导向型对话,采用预训练的方法提高了生成回复的流畅度[63]。 |
语句多样表达 | Su等(2020) | Seq2Seq | 论文提出了基于统计风格信息指导的强化学习策略,在保证生成质量的同时提升生成对话的多样性[64]。 |
Su等(2020) | Seq2Seq | 论文将贴吧评论、俗语和书籍内容等非对话文本引入到对话生成中,用以提升对话生成的多样性[65]。 |
Duan等(2020) | Transformer | 论文针对查询式广告生成任务,在给定关键词的前提下通过引入外部知识来生成多样性的广告文案[66]。 |
语境关联表达 | 倪海清等(2020) | Seq2Seq | 论文针对短文本摘要任务,将短文本的整体语义信息引入生成模型,以确保生成摘要的语义完整性和关联性[67]。 |
Wang等(2020) | Seq2seq | 论文中引入了外部知识用于捕获对话间的关联,同时提出了回复指导注意力机制,引导模型生成一致性回复[68]。 |
Byeongchang Kim等(2020) | Transformer | 论文针对基于知识的对话生成任务提出了序列知识转换模型,能在生成时选择更适合的知识以提升对话的语境关联[69]。 |
个性化生成 | Zheng等(2020) | Transformer | 论文中基于预训练设计了个性化对话模型,通过用户角色和对话历史构建丰富的对话回复文本[70]。 |
Yang等(2020) | Seq2Seq | 论文通过多任务学习和强化学习策略,设计了从输入句子中识别用户特征的作者分析模块用于生成个性化对话[71]。 |
Chen等(2020) | Seq2Seq | 论文中为了提升广告邮件的关注度,通过软模板方法结合用户偏好和产品描述来获得个性化主题[72]。 |