
用RAG的思路构建文档级别知识图谱框架-RAKG 原创
下面我们来看一个用RAG的思路构建文档级别知识图谱构建框架思路,这个思路要解决的问题是如何自动构建文档级别的知识图谱。传统的知识图谱构建方法面临长文本处理中的长距离遗忘问题、复杂实体消歧、跨文档知识整合不足的问题。整体思路可以参考下。
方法
上图的流程:RAKG框架通过句子分割和向量化处理文档,提取初步实体,并执行实体消歧和向量化。处理后的实体经过语料库回顾检索以获取相关文本和图结构检索以获取相关知识图谱。随后,使用LLM整合检索到的信息以构建关系网络,这些网络针对每个实体进行合并。最后,新构建的知识图谱与原始知识图谱相结合。
A. 理想知识图谱的假设
RAKG假设存在一个理论上完美的知识图谱构建过程,该过程可以将文档转换为一个理想的完备知识图谱。这个理想知识图谱可以表示为:
B. 知识库向量化
RAKG将文档和知识图谱进行向量化处理,便于后续的检索和生成操作。
- 文档分块和向量化:文档被分割成多个文本块(chunks),通常以句子为单位进行分割。每个文本块被向量化,以便于后续的处理和分析。类似RAG,这种方法能够减少LLM每次处理的信息量,同时确保每个片段的语义完整性,从而提高了命名实体识别的准确性。
- 知识图谱向量化:初始知识图谱中的每个节点(如实体)通过提取其名称和类型来进行向量化。使用 BGE-M3 模型进行向量化,便于在检索过程中使用。
C. 预实体构建
RAKG通过命名实体识别(NER)来识别文本中的实体,并将这些实体作为预实体进行处理。
- 实体识别和向量化:NER的整个过程由LLM(Qwen2.5-72B)完成。先对每个文本块进行命名实体识别,识别出其中的实体。接着为每个预实体分配类型和属性描述,区分具有相似名称的不同实体。最后将实体的名称和类型组合后进行向量化。
- 实体消歧:在完成整个文档的实体识别和向量化后,进行相似性检查。对于相似度超过阈值的实体,进行进一步的消歧处理,以确保每个实体只有一个唯一表示。
D. 关系网络构建
RAKG通过RAG的方法来构建关系网络。
- 文档文本块检索:对于指定的实体,通过文本块的标识符(chunk-id)检索相关的文本块。使用向量检索获取与选定实体相似的文本块。
- 图结构检索:在初始知识图谱中进行向量检索,获取与选定实体相似的其他实体及其关系网络。
- 关系网络生成和评估:将检索到的文本和关系网络信息整合,并输入到LLM中,以生成中心实体的属性和关系。使用LLM作为评判者来评估生成的三元组,确保其真实性和准确性。
- LLM作为裁判的过程:提取的实体与源文本进行核对以消除幻觉 。检索器使用实体获取相关文本和知识图谱,构建关系网络。然后验 证该网络与检索信息的一致性。
E. 知识图谱融合
RAKG将新构建的知识图谱与初始知识图谱进行融合。自然而然,KG融合有两点核心内容。
- 实体合并:将新知识图谱中的实体与初始知识图谱中的实体进行消歧和合并,确保实体的一致性。
- 关系整合:将新知识图谱中的关系与初始知识图谱中的关系进行整合,以获得更全面的知识图谱。
评估指标
评估指标主要是评估KG的,正好复习下KG的常见评估指标。
1. 实体密度(Entity Density, ED)
实体密度是指知识图谱中实体的数量。公式如下:
ED=Ne
其中Ne, 表示知识图谱中提取的实体数量。实体密度越高,通常意味着从文本中提取的信息越多,知识图谱的覆盖范围越广。
2. 关系丰富度(Relationship Richness, RR)
关系丰富度是指知识图谱中关系的数量相对于实体数量的比率。公式如下:
其中Nr, 表示知识图谱中提取的关系数量。关系丰富度越高,说明知识图谱中实体之间的关系越复杂,能够更好地捕捉实体之间的交互。
3. 实体保真度(Entity Fidelity, EF)
实体保真度用于评估提取的实体的可信度。公式如下:
4. 关系保真度(Relationship Fidelity, RF)
关系保真度用于评估提取的关系的可信度。公式如下:
5. 准确性(Accuracy)
准确性是指知识图谱在问答任务中的表现。通过构建的知识图谱来回答问题的准确率。较高的准确性意味着知识图谱能够更好地保留文本的语义信息。
6. 实体覆盖率(Entity Coverage, EC)
实体覆盖率衡量的是评估知识图谱中的实体与标准知识图谱中的实体之间的匹配程度。公式如下:
7. 关系网络相似度(Relation Network Similarity, RNS)
关系网络相似度衡量的是评估知识图谱与标准知识图谱在关系层面上的相似度。公式如下:
这些指标用于全面评估知识图谱的质量,确保其在实体提取、关系构建和整体准确性方面的表现。
实验效果
RAKG实现了95.81%的准确率,优于KGGen(86.48%)和GraphRAG(89.71%)
RAKG、GraphRAG和KGGen生成的知识图的实体密度和关系丰富度。结果表明,RAKG产生的实体比GraphRAG和KGGen更密集,关系更丰富。
LLM作为评委的结果:实体通过率约为91.33%,关系网络通过率大约为94.51%。
参考文献:RAKG:Document-level Retrieval Augmented Knowledge Graph Construction,https://arxiv.org/pdf/2504.09823
公众号大模型自然语言处理 作者:余俊晖
原文链接:https://mp.weixin.qq.com/s/x3VscG0T93T1pmdX7XSm_g
