
PathRAG:通过图剪枝的方法优化Graph-based RAG的性能方法浅析 原创
PathRAG 也是一种新型 Graph-based RAG 方法,通过检索索引图中的关键关系路径,减少噪声并优化 LLM 提示。其核心创新在于基于流的剪枝算法和路径为基础的提示策略,特别适用于捕捉复杂数据集中的关系。(其实可以看做相比GraphRAG假如剪枝算法和路径提示策略,减少噪声并提升性能)
三种Graph-based RAG对比总结(PathRAG、GraphRAG、LightRAG):
• PathRAG:通过从索引图中检索关键的关系路径来减少冗余信息。PathRAG使用基于流的剪枝算法来识别和提取最相关的路径,从而减少噪声并提高生成答案的质量。(专注于关系路径的检索,通过流式剪枝算法识别最可靠的关系路径,并将这些路径转换为文本形式用于提示生成模型。这种方法能够更好地捕捉节点之间的关系。)
• GraphRAG:通常通过社区检测算法对图进行分割,并从子社区中逐步聚合信息。这种方法可能会包含大量冗余信息,因为其使用了所有相关社区的信息。(主要依赖于社区检测和信息聚合,可能无法有效利用复杂的关系路径。)
• LightRAG:采用双阶段检索框架,从局部和全局级别检索相关信息。虽然这种方法提高了检索效率,但仍然可能包含不必要的信息。(虽然也使用图结构,但其检索过程更侧重于快速检索,可能没有深入探索关系路径的潜力。)
下面再来看看PathRAG的方法,供参考。
PathRAG方法
包含三个主要阶段。1)节点检索阶段:根据查询中的关键词,从索引图中检索相关节点;2)路径检索阶段:我们设计了一种基于流程的剪枝算法,提取每对检索节点之间的关键关系路径,然后检索可靠性得分最高的路径;3)答案生成阶段:检索到的路径按照可靠性得分升序排列放入提示中,最后输入到大型语言模型中进行答案生成。
PathRAG 的方法论分为三个阶段,具体如下:
- 节点检索
- 路径检索
- 答案生成
这种排序策略解决了“中间丢失”问题,确保 LLM 关注最相关信息(LLM使用 “GPT-4o-mini” 作为所有 LLM 组件,索引图与 GraphRAG相同。)。
实验结果
参考文献:PathRAG: Pruning Graph-based Retrieval Augmented Generation with Relational Paths,https://arXiv.org/abs/2502.14902)
code:https://github.com/BUPT-GAMMA/PathRAG
公众号大模型自然语言处理 作者:余俊晖
原文链接:https://mp.weixin.qq.com/s/AuYQB-gofBpN7D_jS32efQ
