别再手工调Prompt!Memory-R1把60条噪音记忆压缩成3条,准确率飙升
大型语言模型(LLM)目前在聊天机器人、编码助手、问题解答、创意写作等等应用方面取得了巨大的成功。但是,每个查询到达LLM之前没有记忆的,固定上下文窗口(contextwindows),意味着他们无法在长时间的对话或多会话任务中积累持久的知识,并且很难推理复杂的历史。最近的解决方案,如检索增强生成(RAG),将过去的信息附加到提示中,但这通常会导致嘈杂的,未经过滤的上下文,用太多无关的细节或缺失的关键事实淹没模型MemoryR1框架...