探索AGI
LV.3
专注于大模型agent的产品落地方向
声望 254
关注 0
粉丝 2
私信
主帖 24
回帖
今天我们来聊聊一个超酷的东西——使用AutoGPT创建的智能Agent。想象一下,你有一个庞大的在线商城数据库,里面存储了海量的用户和交易数据。你想知道有多少活跃用户?一个AutoGPTAgent就能帮你秒查出来,而且,它还能写出正确的SQL查询,不会出错的那种。首先,我们需要给AutoGPT准备一个“大脑”,也就是向量存储,用来保存它的记忆。然后,我们还需要定义一些工具,让Agent知道如何执行SQL查询、获取表结构等。代码大致长这...
3天前 118浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天开始我们来详细看看智能体的大脑——记忆模块的内部,主要从三个方面来扒一扒:记忆从哪儿来,记忆长啥样,以及怎么用记忆。今天我们主要聊聊记忆来源这个话题!首先,我们得明白,记忆对Agent来说,就像是它们的知识库和经验集,能让它们在处理任务时更加得心应手。记忆来源,就是指智能体记忆内容的出处。这里,我们主要关注三种类型的记忆来源:内部任务信息(InsidetrialI...
6天前 183浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道小长假结束了,今天给家人们分享一下假期开源的一个Agent设计模式图,图画的很漂亮。热度蛮高的,然后还有大佬开源了配套的tutorialgithub项目。Agentic设计模式常见的有4种基于reflection的,纯粹的对结果反思,无外部交互。这是一个非常基础的模式,尽管很简单,但却可以为结果带来挺大的提升。与工具交互,并对交互结果进行推理。LLM中存储的信息通常不足以准确、有见地地回答问...
2024-10-15 14:21:33 199浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道今天给家人们分享一个新RAG技巧,随着LLMs能力的变强,检索整个文档而不是文档块已经逐渐成为RAG的新规范。但是如何从大量文档中找出正确的文档呢?最近akshaypachaar大佬,开源了一个改变游戏规则的方法,它将RAG与结构化查询相结合,以实现精确的文档检索。方法的秘密是:建索引的每个文档块附带上文档的信息执行块搜索,从而可以获取到相关的文档的元数据使用检索到的元数据作为...
2024-10-11 16:16:17 189浏览 0点赞 0回复 0收藏
今天分享这篇很干的文章!通过对RAG系统的用户Query进行难度区分,进而可以将系统划分为4个等级。RetrievalAugmentedGeneration(RAG)andBeyond:AComprehensiveSurveyonHowtoMakeyourLLMsuseExternalDataMoreWisely使用外部数据增强的大型语言模型(LLMs)在完成现实世界任务方面表现出了卓越的能力。外部数据不仅增强了模型的特定领域专业知识和时间相关性,而且还减少了幻觉的发生率,从而增强了输出的可控性和可解释性。将外部...
2024-09-27 14:01:57 557浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道最近这2篇综述有点撞车了,不是纯正的Agent综述,可以了解一下最新的应用测的Agent发展情况!现实中的Agent系统会面临很多的挑战,常见的有以下几点:感知模块的探索不足:当前研究中对LLMbasedAgent的感知模块探索不够,尤其是在处理代码这类特殊文本输入时,缺乏对树图结构等高级输入模式的研究。角色扮演能力的需求:Agent常常需要在不同任务中扮演多种角色,如代码生成器、测试...
2024-09-24 14:54:39 357浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天跟大家聊一些关于Agent发展的事情。如果说去年是RAG的元年,大家都在naiveRAG中添加各种技巧,使其变成AdavancedRAG。今年应该就是Agent的元年,年初RAG的迭代变成了AgenticRAG的发展方向,上半年Agent、Agentic、workflow等名词的爆火。当然后来到年终,RAG炒作到了RAG2.0、GraphRAG等上面,最近的RAG炒作变成了MemoryRAG,或者RAG已死等等相关的尽管智能体Agent很热门,但它...
2024-09-13 11:18:54 278浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天给大家安利一个开源框架muAgentv2.0:KG引擎驱动的创新Agent框架。由LLM和EKG(EventicKnowledgeGraph,行业知识载体)驱动的全新Agent框架,协同利用MultiAgent、FunctionCall、CodeInterpreter等。通过基于画布的拖放和简单的文本编写,大语言模型可以辅助您在人工指导下执行各种复杂的SOP。它兼容市场上现有的框架,可以实现四大核心差异化技术功能:复杂推理、在线协作、...
2024-09-10 11:24:33 515浏览 0点赞 0回复 0收藏
今天给大家分享JinaAI提出的一个新的技巧。正常在处理大规模数据建索引的时候,一般我们需要先对文档进行分块,建立向量索引。而这个分块大小,设置的都是比较短的,比如512。一方面是早期bert的处理长度的限制,另一个方面是如果文本太长,包含的信息就越多,那么可能比较难用一个向量来表征出来。图片对于前者,如果持续关注向量模型的同学可以发现,无论是开源的BGE系列,还是闭源的API,都在往一个较长的上下文靠齐(比如说...
2024-09-05 12:50:03 751浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天和大家聊聊一个经典的,贝壳提出的RAISEAgent架构。除了架构之外,还包含一个全面的智能体训练框架,从数据选取到场景增强等等。FromLLMtoConversationalAgent:AMemoryEnhancedArchitecturewithFineTuningofLargeLanguageModels本文介绍了RAISE(通过Scratchpad和示例进行reasoning和acting),这是一种高级架构,可增强GPT4等大型语言模型(LLMs)与会话Agent的集成。RAISE是Re...
2024-09-03 11:30:15 336浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!CAMELAI在Mistralcookbook上新增了一个教程。主要内容为:如何利用CAMEL的RAG与Firecrawl相结合,以实现高效的网络爬虫、multiagent角色扮演任务和知识图谱构建。示例是介绍一个使用Mistral模型对2024年巴黎奥运会土耳其射手进行全面研究的示例。图可能看不清,Agentops和output单独截图在下方:2个Agent,一个作为User提出指令,另外一个作为Assistant,执行任务。aiuser>instruc...
2024-08-29 14:43:10 499浏览 0点赞 0回复 0收藏
图神经网络(GNNs,GraphNeuralNetworks)是一类专为图结构数据设计的强大神经网络,擅长捕捉数据之间的复杂联系和关系。相较于传统神经网络,GNN在处理相互关联的数据点时更具优势,比如在社交网络分析、分子结构建模或交通系统优化等领域,GNN能够发挥出卓越的性能。1GNN概述图神经网络是近年来新兴的一类深度学习模型,擅长处理图形数据。传统神经网络处理的是像数字列表这样的简单数据,而图神经网络能处理更复杂的图形数据...
2024-08-27 11:42:14 548浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!最近,深度学习和人工智能领域的大牛们在arXiv上发表了一篇有趣的研究,标题挺长的:《检索增强生成或长上下文大型语言模型?全面研究和混合方法》。今天分享一篇由GoogleDeepMind和密歇根大学的研究人员发布的一个长上下文和RAG混合的方法。RetrievalAugmentedGenerationorLongContextLLMsAComprehensiveStudyandHybridApproach检索增强生成(RAG)一直是大型语言模型(LLMs)高...
2024-08-27 11:30:01 341浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天我要和大家聊聊一些实战相关的内容。大模型在实际的工业场景下最常见的2个场景分别为应用助手(copilot),文档知识库问答(RAG)。事实上后者也逐渐在往更复杂的Agentic方向发展了,今天我们来看以下如何搭建一个可控的RAGAgent。RAGAgent核心是它的“大脑”,一个复杂的确定性图,它能让AI进行复杂的推理。而且,这个系统一般还能防止“幻觉”。确保所有答案都基于提供的数据...
2024-08-22 13:19:50 453浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天来聊聊一篇挺有意思的论文,被langchain官方点名,很多评论推荐的文章!MultiMetaRAG:ImprovingRAGforMultiHopQueriesusingDatabaseFilteringwithLLMExtractedMetadata检索增强生成(RAG)支持从外部知识源检索相关信息,并允许大型语言模型(LLM)回答对以前看不见的文档集合的查询。然而,研究表明,传统的RAG应用程序在回答多跳问题方面表现不佳,这些问题需要检索和推理支...
2024-08-20 09:46:10 550浏览 0点赞 0回复 0收藏
今天我们从另外一个角度对规划能力进行总结,明天开始我们会分享关于Memory相关的内容。当我们谈论LLM支撑的Agent时,规划模块(PlanningModule)是它们智能行为的核心。想象一下,如果你要完成一项复杂的任务,比如组织一场大型活动,你可能会把它分解成一系列小任务,然后逐一解决。智能体的规划模块也是这么干的!规划模块的设计理念是模拟人类的规划能力,它能让智能体更合理、更强大、更可靠地行动。首先,我们得决定智能...
2024-08-09 16:34:46 540浏览 0点赞 0回复 0收藏
如何让LLM在规划能力上变得更聪明,想象一下,如果我们的AI助手能够记住过去的经历,并且在需要的时候能够回忆起来,那会是多么方便的事情啊!首先,我们要明白,对于AI来说,记忆是提升规划能力的关键。目前,有两种主要的方法可以通过记忆来增强LLMAgents的规划能力:基于RAG的记忆和参数记忆。RAG,也就是检索增强生成,它能够用检索到的信息来增强LLM的最新知识。想象一下,如果AI能够把过去的经验存储在记忆中,并在需要的...
2024-08-07 14:37:38 510浏览 0点赞 0回复 0收藏
在人工智能的世界里,我们经常面临一个挑战:如何让机器像人类一样,面对复杂任务时,能够生成多种可能的解决方案,并从中选择最优的计划呢?这正是“多计划选择”(MultiPlanSelection)要解决的问题。今天,咱们就来聊聊这个有趣的话题。首先,想象一下,如果我们的智能Agent面对一个复杂的问题,它可能会生成多个计划。但是,这些计划可能各不相同,甚至有些可能根本不可行。这时候,多计划选择就派上用场了。它包括两个主要...
2024-08-05 01:20:13 559浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天我们来聊聊一个超酷的东西——BabyAGIagentwithTools。这货是一个能跟数据库打交道的智能体!这是这个系列的第3篇。首先,咱们得搭建一个向量存储和嵌入模型。这里我们用的是开源的Chroma和OpenAI的嵌入模型。别急,这就给你们上代码。fromlangchain.embeddings.openaiimportOpenAIEmbeddingsfromlangchain.vectorstoresimportChromaembeddingOpenAIEmbeddings()persistdirect...
2024-07-30 00:51:18 407浏览 0点赞 0回复 0收藏
嘿,大家好!这里是一个专注于AI智能体的频道!今天我要跟大家聊聊AI界的大新闻,是关于AIagents的未来。最近,LangChain的CEOHarrisonChase在红杉资本的一个活动上,分享了他对Agent未来发展的一些深刻见解。视频地址:https:www.youtube.comwatchvpBBe1pk8hf4首先,简单科普一下LangChain。它是一个超火的编码框架,专门用来整合各种AI工具,让开发者们能轻松构建复杂的应用程序。AIAgent就是这个框架潜力的典型代表。简单来...
2024-07-23 11:00:31 502浏览 0点赞 0回复 0收藏
获得成就
已积累 2781 人气
获得 1 个点赞
获得 0 次收藏