柏企阅文
LV.3
知识库:数学, 统计学, 计算机,人工智能
声望 357
关注 0
粉丝 1
私信
主帖 38
回帖
如果你深耕计算机视觉或人工智能领域,或许已经花了数小时研究YOLO(YouOnlyLookOnce,实时目标检测算法)、FasterRCNN(RegionbasedConvolutionalNeuralNetwork,基于区域的卷积神经网络)、SSD(SingleShotMultiBoxDetector,单阶段多框检测器)等目标检测模型。这些模型堪称“性能强者”,能以惊人的速度和精度生成边界框(boundingboxes)与类别标签(classlabels),为从自动驾驶到零售分析的多个领域带来了变革。得益于深...
9天前 1131浏览 0点赞 0回复 0收藏
马尔可夫思考者:突破大模型推理长度的计算瓶颈最近,强化学习(RL)已成为训练推理LLMs的有效方法,使其能够产生长链思考(LongCoT)。然而,这种方法面临着一个严峻的挑战:计算成本随思考长度呈二次方增长。今天,我们介绍一篇来自Mila、微软研究院、麦吉尔大学等机构的研究团队发表的重要论文——《TheMarkovianThinker》,他们提出了一种革命性的方法,成功解决了这一难题。论文标题:TheMarkovianThinker论文地址:https:arxi...
9天前 1051浏览 0点赞 0回复 0收藏
图片在人工智能快速发展的今天,我们经常惊叹于大型语言模型(LLMs)在推理和工具使用方面的惊人能力。然而,你是否曾有过这样的经历:与AI助手交流时,感觉它虽然能回答问题,却似乎并不真正理解你的需求和偏好?这种"技术能力强大但用户理解不足"的现象。研究背景:当AI遇上"难以捉摸"的用户大型语言模型(LLMs)在复杂推理、代码生成和解决高级数学问题方面已经展现出令人印象深刻的能力。通过工具使用和工具创建,这些模型...
9天前 811浏览 0点赞 0回复 0收藏
在人工智能领域,大型语言模型(LLM)代理正成为解决复杂任务的强大工具。这些代理能够自主执行复杂任务,通过交互、推理和决策来解决问题,通常还可以访问外部工具、记忆或环境。从深度研究代理到工具增强执行系统,再到代码生成代理,LLM代理在复杂科学和工程任务中展现出强大的能力。然而,当前的LLM代理通常面临一个两难选择:要么是僵化的静态系统,依赖手工制作的反思工作流;要么是计算密集型系统,需要通过梯度更新来微调...
9天前 1352浏览 0点赞 0回复 0收藏
在人工智能的快速发展浪潮中,大型语言模型(LLMs)的突破性进展已经点燃了人们对能够解决复杂现实世界任务的AI代理的浓厚兴趣。然而,当前大多数代理系统仍依赖于手动设计的配置,一旦部署便保持静态,这严重限制了它们适应动态变化环境的能力。今天,我们要介绍一篇开创性的综述论文,它为我们展示了一个全新的研究方向——自我进化AI代理。论文背景与作者团队这篇题为《AComprehensiveSurveyofSelfEvolvingAIAgents:ANewPara...
2025-09-29 07:27:27 2290浏览 0点赞 0回复 0收藏
智能体人工智能的梦想遭遇瓶颈我们正站在计算领域新时代的风口——智能体人工智能(AgenticAI)时代。这个梦想简单却意义深远:大语言模型(LLMs)不仅能响应我们的查询,还能主动代表我们实现目标。我们设想这样的智能体:它们能研究复杂主题、规划精密的旅行行程、调试代码,并通过与世界的动态多步交互管理我们的数字生活。在过去一年里,强化学习(ReinforcementLearning,RL)一直是推动我们迈向这一未来的核心引擎。通过让...
2025-09-28 06:50:54 1529浏览 0点赞 0回复 0收藏
在人工智能领域,大型语言模型(LLMs)的发展正面临一个严峻挑战:计算资源的指数级扩展与高质量文本数据的有限增长之间的巨大差距。这一瓶颈正制约着传统的大模型扩展方法。今天,我们要介绍一篇由腾讯团队与香港中文大学合作发表的重要论文,他们提出了一种创新的训练扩展范式——基于预训练数据的强化学习(ReinforcementLearningonPreTrainingData,简称RLPT),为解决这一难题提供了全新思路。在人工智能领域,大型语言模...
2025-09-28 06:49:44 2048浏览 0点赞 0回复 0收藏
大语言模型(LLM)已经成为解决复杂问题的重要工具。然而,即使是目前最先进的模型,也面临着一项根本性挑战:上下文窗口限制。想象一下,当你要求AI回答一个需要多轮搜索、涉及多个实体和复杂关系的复杂问题时,AI往往会因为"记不住"之前的探索过程而无法给出完整答案。近日,阿里巴巴通义实验室的研究团队提出了一项突破性解决方案——ReSum范式,成功破解了这一难题。这项由XixiWu、KuanLi、YidaZhao等研究者共同完成的工作,...
2025-09-28 06:49:30 1862浏览 0点赞 0回复 0收藏
谷歌全新人工智能系统将大型语言模型(LLMs)与树搜索(TreeSearch)技术相结合,实现了专家级科学软件的自动化创建。通过将研究重构为“可评分任务”,该系统在生物信息学、流行病学和神经科学领域展现出超越人类的性能,预示着加速科学发现的新时代到来。假设你是一名科学家,正凝视着屏幕。你的目标是研究亚马逊雨林的森林砍伐问题——你已掌握拍字节(PB)级别的卫星数据,但要将这些原始数据转化为可靠的“森林砍伐检测工...
2025-09-17 07:36:46 2463浏览 0点赞 0回复 0收藏
集群采样策略优化(SwarmSamplingPolicyOptimization,简称SAPO)是一种去中心化的异步强化学习(RL)算法,适用于语言模型(LM)后训练任务。该算法可在异构计算节点上运行,通过网络共享轨迹(rollouts)以传递学习洞见,避免大规模并行化带来的瓶颈问题,降低成本,并在实验中实现了高达94%的奖励提升(包括在数千个多样化社区节点上的测试)。方法原理由N个节点组成的集群会随时间生成并交换轨迹(rollouts)。每个节点都拥...
2025-09-17 07:26:08 1139浏览 0点赞 0回复 0收藏
本文将介绍DuPO——这一突破性AI框架可使大语言模型(LLM)实现自我验证与优化,无需高昂的人工标注。我们将探讨其“广义对偶性”如何解决数学、翻译等不可逆任务,并助力模型实现最先进性能。当前人工智能正处于关键节点。大语言模型(LLM)已展现出惊人的能力,但其发展却受制于一个显著且常被忽视的瓶颈:对反馈的持续依赖。目前主流的技术范式——基于人类反馈的强化学习(RLHF),是GPT4、Claude3等模型背后的核心驱动力。...
2025-09-04 06:58:27 1491浏览 0点赞 0回复 0收藏
DeepSeekV3、Qwen3和KimiK2等模型已经证明,扩大模型规模和计算资源是提升性能的有效途径。然而,随着模型规模的不断增长,计算效率和资源利用成为了亟待解决的关键问题。今天,我们将深入解析美团LongCat团队最新发布的LongCatFlash模型,这个拥有5600亿参数的MixtureofExperts(MoE)语言模型如何在保证强大性能的同时,实现计算效率的突破性提升。技术背景:大型语言模型的效率挑战近年来,大型语言模型的发展呈现出"越大越好"...
2025-09-04 06:55:57 2843浏览 0点赞 0回复 1收藏
图片引言:具身智能与大模型的完美结合具身智能(EmbodiedAI)旨在开发具有物理形态的智能系统,使其能够在真实环境中感知、决策、行动和学习。这一领域被认为是通往通用人工智能(AGI)的有希望之路。尽管经过数十年的探索,但要使智能体在开放动态环境中实现人类水平的智能,以执行通用任务,仍然是一个巨大的挑战。近年来,大模型的突破性进展彻底改变了具身智能领域,通过增强感知、交互、规划和学习能力,为通用智能体奠定...
2025-09-04 06:50:10 2040浏览 0点赞 0回复 0收藏
多模态学习一直是研究热点,它通过整合来自不同模态的信息来提升模型性能。然而,在实际应用中,多模态学习常常面临一个棘手的问题——模态不平衡,导致模型过度依赖主导模态而忽视其他模态,限制了整体效果。一、技术背景:多模态学习的挑战多模态学习旨在通过统一不同模态的模型来增强性能。在现实世界中,对象通常可以通过多种模态来表征。例如,在动作识别任务中,可以整合视频、音频和运动传感器数据来识别人类动作;在文...
2025-08-25 01:21:18 1618浏览 0点赞 0回复 0收藏
传统的文档分块方法(如固定大小或滑动窗口方法)存在几个根本性局限:它们常常会破坏连贯内容,如多页表格、分步流程以及块边界间的交叉引用关系。纯文本提取完全忽略了关键的视觉信息(图表、文档布局),而这些对于理解至关重要。由于跨页边界的语义关系未被保留,会导致上下文不完整。文档内的逻辑流程和依赖关系(包括嵌套章节和流程序列)通常会丢失,从而影响检索增强生成(RAG)系统。问题表述传统方法:对于一个有n页...
2025-08-25 01:08:48 1144浏览 0点赞 0回复 0收藏
山姆·奥特曼一直在大肆宣称GPT5具备博士级智能,如今初步迹象已经显现。一位推特用户称,GPT5展示了一些前所未见的新数学内容,互联网上找不到相关信息,且它能用新的数学算法和方法给出正确证明。实际情况是怎样的“塞巴斯蒂安·布贝克是微软的正统数学家,他给GPT5Pro出了一道凸优化领域的题目。这不是教科书上的题,也不在arXiv学术预印本平台上,不是自动补全的内容,而是一道开放性难题。具体来说:任务是改进优化领域中...
2025-08-25 01:04:26 948浏览 0点赞 0回复 0收藏
Transformer架构从根本上改变了人工智能的格局。从支撑大型语言模型(LLMs)的对话能力到实现实时语言翻译,Transformer已成为现代自然语言处理(NLP)应用的核心。然而,其成功背后伴随着巨大的代价:训练和部署往往需要超大规模数据中心的计算和内存资源。这种计算需求给人工智能发展带来了巨大的经济压力。虽然科技巨头能够承担大规模GPU集群的成本,但小型组织和独立研究人员往往难以跟上步伐。因此,提高Transformer模型的...
2025-08-08 08:28:54 2838浏览 0点赞 0回复 0收藏
2025年8月5日,OpenAI取得新突破,发布了两款基于Apache2.0许可的开放权重推理模型——GPTOSS120B和GPTOSS20B。这些模型将以往只能通过API获取的强大功能赋予了开发者、研究人员和企业,便于他们进行微调、自主部署和扩展。什么是GPTOSS?WhatisGPTOSSGPTOSS(生成式预训练Transformer开源软件,GenerativePretrainedTransformerOpenSourceSoftware)是OpenAI于2025年8月5日根据Apache2.0许可发布的一系列开放权重语言模型。此...
2025-08-08 08:07:43 1.3w浏览 0点赞 0回复 0收藏
向量数据库如何为检索增强生成(RAG)高效匹配数据包含4个层级和30个文档的HNSW图检索增强生成(RAG)是向大型语言模型(LLMs)添加外部知识的重要工具。几乎每个RAG系统都包含一个向量数据库来执行语义搜索。在这种搜索方式中,存储在向量数据库中的文档嵌入会与用户的查询嵌入进行比较。一个基本的RAG设置包括一个嵌入模型、一个向量数据库和一个大型语言模型。向量数据库用于找到与查询最匹配的前K个文档在实际应用中,将一...
2025-08-08 08:04:51 1873浏览 0点赞 0回复 0收藏
在AI大模型领域,如何高效处理文本数据始终是核心挑战。传统分词方法受限于静态词汇表和固定粒度,难以应对低资源语言或复杂语义场景。例如,在面对像东南亚语言或非洲本地语言这类缺乏大规模标注数据的语言时,传统方法往往无法有效提取语义信息。此外,当文本中出现新词、网络用语或专业术语时,传统模型也容易出现断词错误,从而影响整体建模效果。近日,Meta(原Facebook)研究团队开源了一种革命性架构——AUNet,通过引入...
2025-07-25 07:28:31 1887浏览 0点赞 0回复 0收藏
获得成就
已积累 2.2w 人气
获得 0 个点赞
获得 2 次收藏