顿数AI
LV.3
探索人工智能的奥秘!
声望 206
关注 0
粉丝 0
私信
主帖 27
回帖
零成本、高效率:阿里巴巴推出无需真实搜索引擎的LLM搜索能力训练框架大语言模型(LLM)在各种应用场景中展现出了令人瞩目的能力,但其固有的知识静态性和更新滞后性一直是制约其实际应用的关键因素。为解决这一问题,阿里巴巴统一实验室(TongyiLab)的研究团队提出了一种创新的解决方案——ZeroSearch,这是一个无需与真实搜索引擎交互即可增强LLM搜索能力的强化学习框架。本文将深入分析这项突破性技术的原理、实现方法及其重要...
4天前 1071浏览 0点赞 0回复 0收藏
引言:仇恨言论检测的多语言挑战在当今全球化的互联网环境中,仇恨言论已成为一个跨越语言和文化边界的普遍问题。随着社交媒体平台的普及,用户以多种语言创建和互动内容,这使得开发能够有效识别和减轻不同语言环境中仇恨言论的工具变得尤为重要。然而,目前的研究和技术发展主要集中在英语内容上,这导致对其他语言的关注度相对有限。近年来,多语言指令调优的大型语言模型(LLMs)如LLaMA、Aya、Qwen和BloomZ展现出了跨语言...
4天前 400浏览 0点赞 0回复 0收藏
在大型语言模型(LLM)不断扩展参数规模和推理复杂度的今天,传统的集中式训练流程面临着越来越多的限制。高性能模型训练通常依赖于紧密耦合且具有快速互连的计算集群,这些集群成本高昂、可用性有限,并且容易出现可扩展性瓶颈。此外,集中式架构限制了广泛协作和实验的可能性,尤其是在开源研究环境中。近日,PrimeIntellect发布了INTELLECT2,这是一个拥有320亿参数的推理模型,采用广义强化策略优化(GRPO)在完全去中心化的异...
4天前 1838浏览 0点赞 0回复 0收藏
从黑盒到透明:用Shapley值揭开强化学习的决策机制强化学习(ReinforcementLearning,RL)作为人工智能的重要分支,已经在多个领域展现出超越人类的表现,从掌握复杂游戏(如AlphaGo)到控制现实世界系统(如核聚变反应堆调节)。然而,与人类不同,强化学习智能体通常无法解释其行为背后的原因,这使得人们难以理解或信任它们的决策。这种不透明性限制了强化学习在安全关键领域的应用,因为在这些领域中,人类的信任和问责至关...
2025-07-25 08:47:30 1541浏览 0点赞 0回复 0收藏
引言:打破传统微调的局限性在大语言模型(LLMs)快速发展的今天,如何开发紧凑且高效的模型已成为研究的热点。本文介绍了一种突破性的微调方法,通过结合教师模型的logits知识和真实标签,显著提升了模型性能。该方法在数学推理等任务上取得了显著进展,为大语言模型的优化开辟了新的方向。技术创新:突破传统监督微调的瓶颈传统的监督微调(SFT)方法存在明显的局限性,主要体现在无法有效捕捉token之间的依赖关系和语言表达...
2025-07-04 07:18:30 1437浏览 0点赞 0回复 0收藏
基于平滑权重学习的高效模型压缩方案随着深度学习模型规模的不断扩大,如何在保持模型性能的同时实现高效压缩成为了一个重要挑战。来自剑桥大学和西根大学的研究团队提出了一种创新的模型压缩方法,通过引入平滑权重学习(SmoothWeightLearning)和基于奇异值分解的压缩技术,在不需要微调的情况下实现了出色的压缩效果。该方法在CIFAR10数据集上,成功将ResNet18的参数量减少70%的同时,仍保持91%的准确率。创新性压缩方法传统的...
2025-07-04 07:17:02 1255浏览 0点赞 0回复 0收藏
近年来,大语言模型(LLM)领域出现了一个引人注目的发展趋势:研究人员开始转向具有亚二次复杂度的循环模型架构,如Mamba、RWKV和RecurrentGemma等。这些模型在处理长上下文时展现出显著的效率优势,相比传统Transformer架构的二次方复杂度,它们能够以更低的计算成本处理更长的序列。然而,这些循环模型存在一个关键的局限性:固定大小的循环记忆容量。来自特拉维夫大学、IBM研究院和MITCSAIL的研究团队在最新论文《溢出预防增...
2025-06-20 07:11:09 1657浏览 0点赞 0回复 0收藏
引言:知识图谱与大语言模型的融合挑战随着人工智能技术的快速发展,大型语言模型(LLMs)已经在自然语言处理领域展现出惊人的能力。基于Transformer架构的LLMs在开放域问答、文本摘要和内容生成等任务中表现出色,并在医疗、金融、法律和科学等多个领域得到广泛应用。然而,这些模型也面临着一些固有的局限性:它们容易产生自信但错误的输出(幻觉现象),并且缺乏在不重新训练的情况下更新或扩展知识的有效机制。检索增强生成...
2025-06-09 00:48:48 3343浏览 0点赞 0回复 0收藏
引言:重新定义工具使用型语言模型的训练范式大型语言模型(LLM)的工具使用能力已成为扩展其功能边界的关键战略。传统方法通常依赖监督微调(SFT)来确保工具调用的正确性,或从更强大的模型中提炼推理轨迹。然而,这些方法各有局限:要么完全忽略推理过程,要么产生仅能模仿表面模式的伪推理,限制了模型的泛化能力。近日,NVIDIA研究团队发布了一项突破性成果——NemotronResearchToolN1(简称ToolN1),这是一系列基于强化学习...
2025-05-27 07:00:59 1541浏览 0点赞 0回复 0收藏
引言:微调效率的新视角在大型语言模型(LLM)迅速发展的今天,如何在有限资源下高效微调模型成为了研究和应用的关键问题。传统观点认为,训练数据的总令牌数是衡量数据规模的唯一标准,但康涅狄格大学的研究团队提出了一个更为精细的视角:数据的组成结构同样至关重要。本文将深入分析RyanLagasse、AidanKiernans、AvijitGhosh和ShiriDoriHacohen在论文《固定计算预算下LLM微调中令牌效率的缩放定律》中提出的创新理论。该研究...
2025-05-27 06:57:22 1354浏览 0点赞 0回复 0收藏
大语言模型(LLM)在各种应用场景中展现出了令人瞩目的能力,但其固有的知识静态性和更新滞后性一直是制约其实际应用的关键因素。为解决这一问题,阿里巴巴统一实验室(TongyiLab)的研究团队提出了一种创新的解决方案——ZeroSearch,这是一个无需与真实搜索引擎交互即可增强LLM搜索能力的强化学习框架。本文将深入分析这项突破性技术的原理、实现方法及其重要意义。1.研究背景与挑战大语言模型虽然在数学推理、问答和代码生成等多...
2025-05-13 07:21:32 1603浏览 0点赞 0回复 0收藏
突破性能瓶颈:动态超级块剪枝如何重塑信息检索效率在当今数据爆炸的时代,高效的信息检索系统对于各类应用至关重要,从搜索引擎到基于检索增强的大语言模型(RAG)。随着学习型稀疏表示模型的兴起,如何在保持高检索质量的同时提升检索速度成为研究热点。本文深入探讨一项革命性技术——动态超级块剪枝(SuperblockPruning,简称SP),这一创新方法在保持高相关性的前提下,显著提升了稀疏检索的效率。稀疏检索的挑战与机遇稀...
2025-04-27 07:46:39 1447浏览 0点赞 0回复 0收藏
在人工智能的发展历程中,大语言模型(LLM)的推理能力一直是研究的核心焦点。然而,传统的推理能力增强方法往往依赖于高质量的监督信号,如标注好的答案或外部奖励模型,这不仅成本高昂,而且难以扩展。近期,来自上海人工智能实验室、西安交通大学等机构的研究团队提出了一个革命性的解决方案——Genius框架,这是一个可泛化、纯无监督的高级推理自训练框架,能够让大语言模型在没有任何外部监督的情况下自我提升推理能力。传统...
2025-04-16 06:29:38 1797浏览 0点赞 0回复 0收藏
大型语言模型(LLM)在处理超出训练长度的上下文时往往会遇到严重的性能下降问题。NVIDIA研究团队最新提出的SWANGPT架构通过巧妙的设计,成功解决了这一行业难题,无需额外的长上下文训练即可实现稳健的长度外推能力。本文深入剖析SWANGPT的创新架构、工作原理及其在长上下文处理领域的重大突破。1.长上下文处理的挑战与现状大型语言模型的上下文长度限制一直是制约其应用场景的关键因素。目前主流的Transformer架构在处理超出...
2025-04-16 06:25:27 2080浏览 0点赞 0回复 0收藏
近年来,大型语言模型(LLMs)在复杂推理任务上的能力取得了显著突破,从快速直觉思维(System1)向缓慢深度推理(System2)转变。这种转变虽然提高了任务准确性,但也带来了巨大的计算成本。这种性能与成本之间的权衡引发了"推理经济"(ReasoningEconomy)的概念,它关注如何在保持模型推理能力的同时,最大化计算资源的使用效率。本文将深入探讨推理经济的核心问题,分析LLMs在训练后和推理阶段的效率挑战,并探索实现推理经济的潜在...
2025-04-03 00:12:52 2056浏览 0点赞 0回复 0收藏
引言:大模型推理与搜索的融合挑战随着OpenAIo1和DeepSeekR1等模型的出现,大型语言模型(LLMs)在推理能力上取得了显著突破。然而,将复杂推理与外部搜索过程有效整合仍然面临重大挑战,尤其是在处理需要多步检索的复杂多跳问题时。传统方法往往依赖手动设计的提示或启发式规则,这在可扩展性和灵活性方面存在明显局限。更重要的是,为多步推理场景生成监督数据通常成本高昂且在实践中难以实现。百川科技、同济大学、爱丁堡大学...
2025-04-03 00:01:22 8800浏览 0点赞 0回复 0收藏
背景大型语言模型(LLMs)如GPT4和LLaMA3凭借Transformer架构的强大情境学习(InContextLearning,ICL)能力,能够从有限的示例中快速学习并适应新任务。然而,ICL的泛化边界和脆弱性一直缺乏系统性的理解,这限制了其在实际应用中的潜力发挥。清华大学的研究团队通过定义一个以任务为中心的框架,从三个维度系统地研究了Transformer架构在ICL下的泛化能力,并提出了优化训练数据设计的重要指导原则。研究框架:三维泛化能力分析...
2025-03-24 00:32:17 1955浏览 0点赞 0回复 0收藏
融合地理定位与对话能力的新型多模态模型图像地理定位技术在过去几年取得了显著进展,但传统模型仅限于提供GPS坐标,缺乏对位置的深入理解和与用户进行有意义对话的能力。中佛罗里达大学的研究团队最近提出了一种创新解决方案——GAEA(GeolocationAwareConversationalModel),这是首个将精确地理定位能力与丰富对话功能相结合的开源多模态模型。GAEA不仅能确定图像的拍摄位置,还能提供关于该位置的详细信息,包括附近的地标...
2025-03-24 00:27:34 2425浏览 0点赞 0回复 0收藏
引言解码人类大脑处理语言的机制是神经科学的核心目标之一。人类语言处理由大脑的语言网络(LanguageNetwork,LN)支持,这是一组位于大脑左侧的前额叶和颞叶区域,具有对语言输入的选择性反应能力。近年来,随着机器学习的快速发展,基于大规模文本语料库训练的下一词预测的大型语言模型(LLMs)成为了模拟人类语言网络内部过程的有力工具。本文旨在探讨大型语言模型如何与人类语言网络对齐,并分析这种对齐在模型训练中的演化...
2025-03-12 00:42:58 2480浏览 0点赞 0回复 0收藏
引言大型语言模型(LLMs)的推理能力近年来取得了显著进展,尤其是在训练后阶段。诸如DeepSeekR1、KimiK1.5和OpenAIo1等模型展现了卓越的逻辑推理能力。然而,这些成果的可复现性和扩展性仍面临诸多挑战,特别是在缺乏训练代码和数据集的情况下。LogicRL框架的提出旨在通过基于规则的强化学习(RL)方法,填补这一研究空白,并推动LLMs推理能力的进一步发展。LogicRL通过在逻辑谜题上进行训练,成功开发了类似DeepSeekR1的推理...
2025-03-12 00:42:12 2813浏览 0点赞 0回复 0收藏
获得成就
已积累 1.3w 人气
获得 0 个点赞
获得 0 次收藏