Syrupup
LV.5
这个用户很懒,还没有个人简介
声望 740
关注 0
粉丝 1
私信
主帖 78
回帖
大模型到底会不会真的思考?这一疑问一直萦绕在人们心中。作为LLM的反对派YannLeCun又拿出了新证据。他参与的最新研究《FromTokenstoThoughts:HowLLMsandHumansTradeCompressionforMeaning》(从词元到思想:大模型与人类在压缩与意义之间的权衡)用信息论的全新视角,揭示了大语言模型(LLM)与人类在“理解世界”这件事上的本质差异。人类大脑在处理信息时,善于将纷繁复杂的感知和经验,压缩成简洁而有意义的“概念”。比如...
2025-06-12 06:47:53 977浏览 0点赞 0回复 0收藏
在模型性能越来越强且趋同的大背景下,知识库、工具成为了AI应用的差异性壁垒。MCP就是规范Agent与工具的交互而产生。但MCP协议本身还比较简单,在实际生产中,Agent如何与海量的、异构的外部软件和服务进行有效、安全的连接与操作以及如何管理海量的MCPServer就是一大挑战。传统上为每个Agent单独开发和维护工具接口及认证逻辑的方式,其复杂性和低效性已成为制约AIAgent能力规模化扩展的因素之一。因此,针对这一挑战,很多公...
2025-05-30 05:01:19 574浏览 0点赞 0回复 0收藏
在最近的文章中,笔者介绍了影响Context高质量供给的关键因素有记忆的存用和记忆的连贯性。而对记忆源信息(尤其是复杂文档)的深度理解是高质量Conext供给的又一大关键。传统的文本提取和分块方法,在面对图文混排、表格遍布的文档时,往往力不从心,生成的Context质量堪忧,这已成为提升RAG应用性能的一大瓶颈。我们都曾经历过这样的“噩梦”:精心构建的RAG系统,因为OCR识别错误、表格内容丢失、或者图片信息被忽略,导致LL...
2025-05-19 00:08:03 1184浏览 1点赞 0回复 1收藏
在最近文章中,笔者反复提到context的重要性(欢迎关注查阅)。而供给高质量的Context的关键就是记忆的存用和记忆的连贯性。mem0就是一个专注构建大模型记忆的项目,在此前文章也有介绍(​​​大模型的“记忆”不应仅仅只依靠向量数据库,mem0是一个很好的“融合架构”实践方向​​​)。在此之前它们推出一个插件(​​​Mem0上架chrome插件商店,把记忆交给AI!​​​)解决在一个工具里多次交流的长期记忆问题,最近OpenAI...
2025-05-16 06:52:06 1637浏览 0点赞 0回复 0收藏
近一阶段,强化学习成为进一步提升大模型能力的共识路径,这时候,你是不是也觉得,给大模型套上强化学习(RL)的缰绳,再用上那些能自动验证对错的奖励机制(RLVR),就能让它们像打了鸡血一样,推理能力蹭蹭往上涨,实现模型自我进化,“左脚踩右脚”不断飞升。然而,清华大学近期的一项研究《DoesReinforcementLearningReallyIncentivizeReasoningCapacityinLLMsBeyondtheBaseModel(强化学习真的会激励LLMs基模型之外的推理...
2025-04-30 06:31:43 757浏览 0点赞 0回复 0收藏
还记得2023年初ChatGPT刚出来时,让它30秒写一个“冒泡排序”都觉得很新鲜?弹指之间,今天的AIagent已经能自主几分钟内啃下人类程序员需要一小时乃至一天才能完成的需求了。感觉AI进步太快跟不上?这可不是错觉。专注于AI能力评估的METR机构扔出重磅研究:AI系统能搞定的编码任务复杂度(以人类所需时间衡量)正以惊人的指数速度增长,其“时间范围”(TimeHorizon)——即AI能达到50%成功率的任务时长——大约每7个月就翻一番...
2025-04-30 06:29:32 1511浏览 0点赞 0回复 0收藏
目前,很多的使用MCP的案例都是基于Cursor,ClaudeDesktop等客户端展开的,那么如何在现有的系统里通过代码集成呢?今天,介绍一个很不错的MCP客户端库mcpuse,集成非常简单,仅需6行代码即可创建第一个支持MCP的Agent,可与任何支持工具调用的Langchain支持的LLM(OpenAI、Anthropic、Groq、LLama等)配合使用,不仅支持本地MCPServer,还支持sse协议下的远程MCP服务器,这样就可以和Dify这样框架集成(​​Dify也支持MCP了!...
2025-04-18 07:07:01 2124浏览 0点赞 0回复 0收藏
OpenAI发布了其最新的人工智能推理模型:o3和o4mini。o3被誉为该公司迄今“最强大的推理模型”,在数学、编程、推理、科学及视觉理解等多个基准测试中刷新了记录,尤其擅长处理需要多角度分析的复杂查询和视觉任务,并在实际应用中显著减少了错误。与此同时,o4mini作为一款更小巧、快速的模型,旨在提供具有竞争力的价格、速度和性能平衡。它在保持低成本的同时,在数学(如AIME基准测试近乎满分)、编程和视觉任务上表现卓越...
2025-04-18 06:57:38 1658浏览 0点赞 0回复 0收藏
最近,以deepSeekR1为代表的推理模型成为热点,他们可以展示自己的思考过程,一步步解决复杂的问题,让原本黑盒模型变得具有可解释性,同时也为AI安全研究提供了窗口,便于发现潜在的不良行为。但一个核心问题是:我们能相信AI思维链中呈现的内容吗?理想的思维链应既易懂又“忠诚”(Faithful),即真实反映模型的思考过程。然而,现实中我们无法保证这一点。模型可能无法用人类语言完全表达其内部决策,甚至可能故意隐藏部分...
2025-04-08 00:57:41 1330浏览 0点赞 0回复 0收藏
昨日,AI届“汪峰”Qwen团队发布了Qwen2.5VL32BInstruct,作为Qwen2.5VL系列模型的最新迭代,通过强化学习优化,以32B参数规模击败上代72B版本,展现出其更智能和轻量级的突出特点。较前代模型在以下方面有了显著改进:更符合人类偏好的回答:调整输出风格,提供更详细、格式更好的答案,更贴近人类偏好。数学推理能力提升:在解决复杂数学问题方面,准确性得到显著提高。精细图像理解和推理:在图像解析、内容识别和视觉逻辑推...
2025-03-26 00:48:45 2036浏览 0点赞 0回复 0收藏
DeepSeek在领域内获得广泛关注的核心在于R1Zero仅通过强化学习(RL)便成功实现了推理能力的涌现,即发现Ahamoment。那么,在多模态领域,是否也能获得借鉴R1Zero的思路呢?今天介绍的VisionR1就是这一方面的探索的代表,其目的就是研究如何有效利用RL来增强多模态大型语言模型(MLLM)的推理能力。然而,研究团队发现,由于缺乏大规模、高质量的多模态推理数据,直接应用RL训练MLLM在激发其深层推理能力(如提问和反思)方面面...
2025-03-13 08:06:14 2336浏览 0点赞 0回复 0收藏
OpenAI昨晚宣布推出其最新的预训练模型GPT4.5,这是一款在规模和知识水平上均达到新高度的产品,被OpenAI誉为其“迄今为止最大、知识最渊博的模型”,标志着无监督学习的又一次重大飞跃。GPT4.5目前作为研究预览版,向ChatGPTPro用户和开发者开放,预计下周将向Plus用户和其他用户开放。核心更新与特点预训练规模显著提升:GPT4.5的预训练计算规模大约是GPT4的10倍,带来性能的全面提升。在性能甚至超过了一些推理模型,如gemin...
2025-03-03 13:34:50 3464浏览 0点赞 0回复 0收藏
英伟达工程师最近用DeepSeekR1模型加上“推理时扩展”技术,让AI自动生成GPU核心代码,也就是GPU内核。更让人惊讶的是,有些AI生成的代码甚至比工程师写的还要好!随着AI模型处理越来越复杂的任务,它们对计算资源的需求也在不断增长。GPU内核作为执行计算任务的关键部分,其优化程度直接关系到模型的性能。然而,传统的内核优化需要大量时间和专业知识,效率低下。NVIDIA工程师们采用了DeepSeekR1模型,这是一种开源的AI模型,...
2025-02-21 11:16:07 2257浏览 0点赞 0回复 0收藏
xAI近日宣布推出Grok3,这是继Grok2之后的又一重大更新。Grok3在性能上实现了显著提升,据ElonMusk透露,其能力比Grok2提升了整整一个数量级。Grok3的发布得益于200K个GPU的计算能力,这一数字在短短92天内翻倍。Grok3的训练量是Grok2的10倍,并在一月份完成了预训练。这一模型仍在不断训练中,预示着其未来性能的持续提升。在性能基准测试中,Grok3在同类模型中表现出色,显著超越了Gemini2Pro和GPT4o等模型。即使是Grok3mini...
2025-02-21 11:11:30 1909浏览 0点赞 0回复 0收藏
OpenAI的CEOSamAltman在社交媒体上分享了关于GPT4.5和GPT5的最新进展。OpenAI承认目前的产品线对用户来说过于复杂,因此他们正在努力简化产品,目标是让AI能够“开箱即用”。GPT4.5(内部代号为Orion)将会是最后一个“非思维链模型”,而GPT5则将整合包括o3在内的多项技术,成为一个集大成者。未来,OpenAI将不再单独发布o3模型。为了让更多人体验到AI的强大功能,免费版ChatGPT用户将可以在标准智能设置下无限次使用GPT5,当然...
2025-02-13 12:50:55 2629浏览 0点赞 0回复 0收藏
OpenAI前研究员AndrejKarpathy最近提出了一个新颖的编程概念——"vibecoding"(氛围编程)。这是一种依托大语言模型(LLM)的全新编程方式,让开发者能以更轻松自然的方式完成编程任务。这种编程方式的核心在于完全沉浸于编程的“感觉”中,甚至忘记了代码的存在。vibecoding有以下特点:极简交互开发者只需通过语音或文字描述需求无需深入代码细节大量使用"AcceptAll"等快捷操作LLM驱动依托CursorComposer等AI编程工具结合SuperWhis...
2025-02-05 17:30:47 4443浏览 0点赞 0回复 0收藏
2024年,vLLM完成了从专业推理引擎到开源AI生态系统标配解决方案的蜕变。这一年,项目在各个维度都实现了显著增长:GitHub星标数从14,000增至32,600,贡献者数量从190扩展到740,月下载量从6,000激增至27,000,近半年的GPU使用时长更是增长了约10倍。这些数据印证了vLLM在AI基础设施领域的领先地位,已成功为亚马逊Rufus和领英等大型产品提供核心支持。2024年重要成就社区建设与生态发展2024年,vLLM建立起了一个充满活力的开源...
2025-01-21 13:54:46 2886浏览 0点赞 0回复 0收藏
近日,HuggingFace最近开源的一个Agent项目:smolagents。相较于其它框架,它的理念和实现都比较简单。基于python开发,核心设计理念是“少即是多”。相比市面上动辄几万行代码的Agent框架,它保持了极简的风格,核心代码仅有数千行,但功能却毫不逊色。HuggingFace团队希望通过这种方式,降低Agent开发的门槛,让更多开发者能够快速上手。设计亮点smolagents的最大亮点在于其对“代码Agent”的原生支持。这意味着Agent的行为将...
2025-01-10 13:38:37 4244浏览 0点赞 0回复 0收藏
GitHub和Microsoft日前联合宣布推出GitHubCopilot免费计划,所有开发者只需一个GitHub账号即可在VSCode中免费使用这款AI编程助手,无需信用卡,无需订阅。这一免费计划为用户每月提供2000次代码补全和50次聊天请求额度。用户可以使用GPT4o和Claude3.5Sonnet两种AI模型,基本满足日常开发需求。如需更多功能,可升级至无限制的Pro计划,该计划还将在明年支持o1和Gemini等更多模型。除了基础的代码补全功能,GitHubCopilot还推出...
2025-01-02 13:14:10 8004浏览 0点赞 0回复 0收藏
当前,向量数据库已经成了一个红海市场,新兴的还是传统数据库厂商都在做这方面的工作。然而,在嵌入式,端上的向量数据库比较少,chromaDB算是其中一个,但它不算是一个纯原生、深度优化的的嵌入式向量数据库,仍采用parquet格式(读一行数据需要读取整个块解压,比较慢,另外副本占用空间),功能也比较少,那有没有更好的选择呢?很多人自然想到关系型嵌入式数据库王者——Sqlite,奈何它的向量版本sqlitevec还处于开发中,...
2024-12-24 11:41:32 8817浏览 0点赞 0回复 0收藏
获得成就
已积累 6.1w 人气
获得 1 个点赞
获得 3 次收藏