
回复
title:You Truly Understand What I Need : Intellectual and Friendly Dialogue Agents grounding Knowledge and Persona
论文地址:https://aclanthology.org/2022.findings-emnlp.75/
代码地址:https://github.com/dlawjddn803/INFO
总结:
1)先计算persona和knowledge的分数
2)选择合适的persona+knowledge
3)结合2+query,利用faiss检索相近的paragraphs
4)生成更具信息量,更多参与度的responses。
主旨思想:利用对话历史信息,挖掘出最相近的背景信息,然后利用该信息检索出更多额外知识,进而提高生成结果的质量。
U:人类和机器的历史对话数据。
cand:每个候选,感觉是knowledge的候选 or persona的候选,目的是排序后选择分数最高的。
KPEQ(knowledge persona enhanced query):增强后的query
Retriever(Non parameters):非参数的,相当于是检索出相关文档,辅助额外的知识来提升回复效果。
Generation:生成效果评估
Grounding:persona和knowledge分类预测的精度(挑选分数最高的persona和knowledge的精度吗?)
RAG:token级别生成效果好,sequence级别分类效果好
本文转载自PaperWeekly,作者: 胡翔 NLP