xuxiangda
LV.6
这个用户很懒,还没有个人简介
声望 1081
关注 0
粉丝 1
私信
主帖 105
回帖
.在与大型语言模型(LLM)的日常交互中,我们常常会被它们表现出的“人格”所吸引。有的模型总是温和礼貌、乐于助人,似乎充满宜人性,有的模型思维开放、表达流畅,仿佛具备高度开放性,还有的模型在对话中展现出自我调节与克制,好像能像人类一样控制情绪与行为。在人类心理学中,这些个性特质并非只是表面标签,而是能够跨情境稳定地预测行为的心理结构。LLM是否也具备类似的稳定性?它们的“人格”究竟是内在的行为驱动力,...
8天前 730浏览 0点赞 0回复 0收藏
多智能体系统(MAS)是一支由不同专长成员组成的虚拟团队,有精于数学推理的成员,也有擅长规划与策略设计的高手,他们通过角色分工和结构化流程,共同破解难题。这种分工协作不仅能显著提升效率,还能将单一模型无法触及的深度任务迎刃而解。但是无论是精心设计的角色分工,还是巧妙搭建的投票与融合机制,现有系统往往在“如何让各专家在对话中真正理解彼此”这一环节失之交臂。他们更多关注最终答案的质量,却忽视了智能体间...
8天前 1264浏览 0点赞 0回复 0收藏
我们从孩提时代识别母亲的微笑,到成年后解读同事的口风,情绪渗透在我们日常的每一次决策与交互中。人类对情绪刺激的敏锐度不仅驱动社交关系的建立,也影响学习、记忆和创造力的发挥。正是情绪这一无形却强大的力量,引领我们对世界做出立体而细腻的感知。随着大型语言模型(LLM)在自然语言理解与生成领域的飞速进展,我们开始怀疑这个问题,这些基于海量文本训练而成的人工智能,能否在“情绪测量”这一高度主观的任务中,重...
2025-08-28 07:16:51 1480浏览 0点赞 0回复 0收藏
当代认知科学面临一个迷人却顽固的谜题,即为何多数物种早已掌握快速学习与迁移,却唯有人类能灵活创造符号、进行高层类比?美国伊利诺伊大学香槟分校团队将这个问题置于生物进化与计算建模的交叉口。研究者首先聚焦动态绑定——这一从果蝇到人类普遍存在的“表征引擎”如何支撑快速泛化。然而,仅有动态绑定尚不足以生成完整的符号思维,还需要哪些核心能力?是将多实体绑成层级谓词的“多元关系表征”,还是在不同情境间建立...
2025-08-28 07:11:11 935浏览 0点赞 0回复 0收藏
大型推理模型(LRMs)是人工智能的进化史最耀眼的成果,它们不仅能处理复杂的推理链条,还能展现出接近人类的“涌现”思维模式。然而光芒之下,也有难以忽视的阴影——这些模型在推理过程中往往缺少自我调节的能力,像一列高速行驶却无法随时刹车或换轨的列车。一旦偏离正确方向,就可能在冗长的推理中积累错误,浪费算力和时间。在人类的认知体系中,有一种能力是解决这一问题的天然利器——元认知(Metacognition)。它是“关...
2025-08-28 07:06:18 1832浏览 0点赞 0回复 0收藏
GPT5发布在即,根据奥特曼在内部演示中首次披露的GPT5实测数据,这一代模型不仅具备高达256K的上下文窗口,还展现出惊人的数学与编程能力。更令人瞩目的是其“智能模式切换”能力——在深度推理与快速响应之间自由切换,仿佛具备了某种“元认知”能力。这种表现并非偶然,而是源于其底层架构中引入了新的验证机制,被称为“UniversalVerifier”,其灵感正是来自一项前沿研究:ProverVerifierGame(PVG)。ProverVerifierGame让...
2025-08-15 07:11:47 1561浏览 0点赞 0回复 1收藏
在多智能体协作系统里,信息像潮水一样涌来,每个代理都在说话、检索、推理,历史对话和外部知识不断堆积。若不加甄别地把“所有上下文”一股脑儿塞给所有代理,你得到的往往不是更聪明的系统,而是更贵、更慢、更乱的系统。冗余信息增加了噪音,token成本飙升,模型注意力被牵扯,真正关键的证据反而被淹没。尤其在多轮互动中,任务焦点会迁移——如果路由策略不跟着任务阶段变化而调整,协作效率就会被拖垮。RCRRouter把这件...
2025-08-15 07:06:51 2152浏览 0点赞 0回复 0收藏
《自然》科学期刊一直站在人工智能与神经科学交汇的前沿,一项来自《NatureMachineIntelligence》的研究正悄然重塑我们对人类视觉系统的理解。8月7日,这篇题为《Highlevelvisualrepresentationsinthehumanbrainarealignedwithlargelanguagemodels》的论文,提出了一个令人振奋的命题:人类大脑在处理自然视觉场景时,其高级视觉表征竟然与大型语言模型(LLM)对场景字幕的嵌入向量高度一致。这不仅是一次跨模态的对齐尝试,更...
2025-08-15 07:00:28 991浏览 0点赞 0回复 0收藏
7月26日,一场科技的思想风暴在黄浦江畔席卷而来。AI教父GeoffreyHinton的身影首次现身中国,引发了全球人工智能领域的广泛关注。他在世界人工智能大会(WAIC2025)上发表了题为《数字智能是否会取代生物智能》的主题演讲,不仅是他个人的重要公开露面,更是AI技术哲学发展史上的里程碑时刻。Hinton的名字,在神经网络、深度学习和大语言模型的世界里如雷贯耳。他是人工智能发展的奠基人之一,也是推动AI从象牙塔走向现实世界的...
2025-07-31 07:26:59 1182浏览 0点赞 0回复 0收藏
在AI应用不断深入现实世界场景的当下,一个新问题开始浮出水面:计算机使用智能体,到底能为我们承担多少真正的工作?面对日益复杂的桌面应用操作、人机协同任务,以及跨应用的使用习惯,传统AI评估范式已显力不从心。过去,AI智能体多集中于网页操作、自然语言生成或静态任务执行,然而随着VLM(视觉语言模型)与多模态技术的进步,系统开始具备理解界面元素、执行复合操作的能力。这类“计算机使用智能体”正在成为下一代人机...
2025-07-31 07:21:00 992浏览 0点赞 0回复 0收藏
我们正见证一种新的融合力量逐渐成形——大型语言模型(LLMs)与多智能体系统(MultiAgentSystems,简称MAS)的深度整合。过去智能体往往孤立运作,受限于静态规则和单一任务定义。而如今,随着语言模型的语义理解和推理能力的跃升,智能体不再只是执行者,更成为能够协同、规划、适应环境的“认知单元”。在这一背景下,MAS不再是简单的多代理并行处理系统,而演变为一个语言驱动、反馈自适应的群体智能结构。这也是字节跳动所...
2025-07-18 12:02:21 4600浏览 0点赞 0回复 0收藏
OpenAI、GoogleDeepMind等科研力量纷纷推出具备视觉语言理解能力的MLLM模型。这些模型在图像描述、视觉问答、目标识别等任务上表现惊艳。但是若进一步观察其在动态场景下的表现,例如物体运动、相对方向、空间构造变化等复杂空间推理任务,就会发现它们的能力尚不成熟。当前的主流MLLM训练策略多聚焦于静态图像配对和语言生成,而缺乏对物体移动、时序变化、物理交互等空间维度进行系统建模的机制。这直接导致模型虽能“看图说...
2025-07-17 12:07:05 1984浏览 0点赞 0回复 0收藏
为了早日实现通用人工智能AGI,行业一直在思考这个问题:如何让AI像人类或其他动物一样,在不断变化的世界中持续学习、灵活适应?7月4日,arXiv热门论文《WhatNeuroscienceCanTeachAIAboutLearninginContinuouslyChangingEnvironments》站在神经科学与AI交叉的最前沿,提出了一个发人深省的问题:面对非静态环境——无论是现实世界中的交通系统、在线互动、还是生物演化的复杂生态——AI能否汲取生物大脑亿万年来的生存智慧,突...
2025-07-10 07:07:16 2691浏览 0点赞 0回复 0收藏
语言可以建模,图像可以合成,声音可以模仿。但唯独“动作”,这个看似直观、日常而简单的维度,却一直是人工智能最“心虚”的领域。你有没有注意到:生成模型已经可以输出篇章结构清晰的文章,甚至能“画”出栩栩如生的图像,但它依然难以生成一次“自然的跌倒”,一个“真实的击掌”,或是一个符合物理规律的“拥抱”。原因并不复杂——我们在追逐人工通用智能时,或许遗漏了最根本的一点:智能从来不是悬浮在代码和数据上的...
2025-07-10 06:58:01 3622浏览 0点赞 0回复 0收藏
大模型(LLM)正逐渐从语言理解的工具转变为自主决策的智能体,一个根本性问题被推向前台:它们真的能够在多智能体环境中表现出理性的、趋于均衡的行为吗?语言模型的“博弈挑战”,从理解文本到理解对手LLM如今不仅被用于对话生成或文本创作,还被寄予厚望以模拟人类的经济行为、参与博弈决策甚至社会互动。其背后的直觉很简单:人类的行为高度语言化,那为何不能用掌握了海量文本知识的模型来“模拟”人类选择?但语言模型并...
2025-06-26 00:31:17 2089浏览 0点赞 0回复 0收藏
深度神经网络(DNN)早已不仅仅是数学家的玩具,它们已广泛应用于语音识别、图像分类、语言理解乃至战略博弈等高复杂度任务中。在许多感知任务上,它们甚至赶超了人类的表现。这也引出了一个令人着迷的问题:这些“聪明”的机器到底在多大程度上理解世界的方式与我们人类类似?正是在这样的背景下,认知神经科学与人工智能研究者的目光开始聚焦于“表征对齐”(representationalalignment)这一核心问题。所谓表征,是指系统内...
2025-06-26 00:21:38 2326浏览 0点赞 0回复 0收藏
在人工智能迈入大语言模型(LLMs)主导的新阶段后,我们获得了许多惊艳的技术能力,丰富的语言理解、流畅的文本生成,以及令人信服的对话模拟。但当我们期待与AI维持一场“持久而个性化”的深度交流时,现实却给我们泼了一盆冷水——它们很“健忘”。对“记忆力差”的大模型说不尽管GPT类模型在推理和语言风格把控上令人钦佩,但它们的记忆方式仍停留在“即时记忆”阶段。由于依赖固定长度的上下文窗口,它们往往只能记住“最近...
2025-06-12 07:23:32 4177浏览 0点赞 0回复 0收藏
众所周知,目前的多模态推理系统大多依赖于静态的视觉信息处理方式,即在推理开始时模型提取全局视觉信息,然后完全依靠文本推理进行后续决策。这种方法存在明显的缺陷。随着推理链的延展,模型往往逐渐丧失对视觉内容的关注,导致最终结论缺乏准确的视觉依据。例如,在处理数学视觉题目或科学图表时,当前模型仅使用一次性的视觉输入,而无法在推理过程中动态调整焦点,这使得许多细节被忽略,推理质量受限。更进一步,现有的...
2025-05-30 05:29:16 3140浏览 0点赞 0回复 0收藏
当前大多数智能体框架沿袭自顶向下(TopDown)的设计思路——人类事先定义目标、拆解任务,并构建工作流供智能体执行。这种方法在封闭环境中表现卓越,但当智能体需要在开放、非结构化环境中自主适应和学习时,它们往往力不从心。问题的症结在于传统的智能体设计过于依赖人工干预,无法自主进化。在自顶向下工作流中,智能体的能力主要依赖预定义的API、任务提示和专家设计的执行路径。但现实世界并非一个由任务明确、结构清晰...
2025-05-30 05:24:50 2893浏览 0点赞 0回复 0收藏
要训练一个性能卓越的LLM,计算资源是首要门槛。从数千颗GPU到优化的内存管理,再到高速网络互连,每个环节都决定着模型的最终表现。传统的AI计算架构无法轻松支持如此庞大的计算负载,内存容量不足、计算效率受限、网络带宽瓶颈成为横亘在AI发展道路上的三座大山。5月14日,DeepSeekAI团队发表技术论文《InsightsintoDeepSeekV3:ScalingChallengesandReflectionsonHardwareforAIArchitectures》,公布了DeepSeekV3相关技术内容...
2025-05-19 01:01:24 2335浏览 0点赞 0回复 0收藏
获得成就
已积累 8.9w 人气
获得 1 个点赞
获得 1 次收藏