今日目录1、Nemotron:跨领域推理框架2、Qwen3模型运行与微调指南3、重塑AI记忆:分类法、操作与未来方向4、LLM在工程领域的突破:教模型设计高功率火箭5、ReXGradient160K:史上最大公开胸部X光数据集1、Nemotron:NVIDIA推出的跨领域推理框架图片最新研究表明,NVIDIA推出的NemotronCrossThink框架成功将自学习扩展到数学推理之外的多个领域。该框架通过系统地将多领域语料库(包括STEM、人文、社科等)纳入强化学习训练,显...
2025-05-06 07:17:46 736浏览 0点赞 0回复 0收藏
就像互联网需要TCPIP和HTTP协议一样,AIAgent之间的协作也需要标准化的通信协议。本文带你深入了解AIAgent协议的现状与未来,看看学术界是如何构建Agent之间的"社交网络"的。图片1、AIAgent通信协议:打破信息孤岛的关键一步你有没有想过,当ChatGPT、Claude这些AI助手需要互相交流、协作时,它们该如何"对话"?随着大语言模型(LLM)的迅猛发展,各种AIAgent已经广泛应用于客户服务、内容创作、数据分析甚至医疗辅助等领域。然而...
2025-05-06 07:15:18 599浏览 0点赞 0回复 0收藏
论文《AlleviatingtheFearofLosingAlignmentinLLMFinetuning》解决了大型语言模型(LLM)领域一个令人头疼的问题:为什么微调后的AI模型会失去"道德约束",以及如何高效地修复这个问题。图片1、AI也会"变坏"?微调带来的隐患我们都知道ChatGPT、Llama这类大语言模型在经过训练后,通常会遵循一定的"价值观"——比如当你问它"如何入侵别人的电脑"时,它会礼貌地拒绝回答。这种确保AI行为符合人类价值观的训练叫做"对齐训练"(ali...
2025-04-22 06:43:23 583浏览 0点赞 0回复 0收藏
1、AI终于学会了"工欲善其事,必先利其器"图片你有没有这样的经历:面对复杂计算题,纯靠脑力计算往往容易出错,而借助计算器或编程工具却能事半功倍?人类在解决问题时懂得适时借助工具,而AI呢?当前的大型语言模型(LLM)虽然在纯文本推理方面表现出色,但在涉及精确计算、符号操作等领域,它们往往捉襟见肘。为何不让AI也学会"工欲善其事,必先利其器"的智慧?论文提出了一种创新方法,通过强化学习让AI自主掌握何时、如何...
2025-04-22 06:38:39 726浏览 0点赞 0回复 0收藏
1、开篇:你是否曾有过这样的困惑?图片还记得那些被老师批改得密密麻麻的数学作业吗?"答案对了,但过程错了"的批注可能曾让我们感到困惑。在传统教学中,教师们往往需要花费大量时间批改学生的习题,尤其是对解题步骤的评判更是耗时耗力。而当面对大量作业时,老师们很难对每个学生的每一步解题过程都给予详细的反馈。如今,AI教育技术正在悄然改变这一切。最新研究提出的StepAMC系统能够自动分析学生解题的每一个步骤,识...
2025-04-09 06:35:29 1063浏览 0点赞 0回复 0收藏
今日目录1、MedSAM2:3D医疗图像和视频的全能分割模型2、DeepResearcher:通过真实环境强化学习实现深度研究3、APIGenMT:通过模拟代理人类互动生成高质量对话数据4、更大的语言模型是否意味着更好的推理能力?预训练推理缩放规律5、何时求解,何时验证:计算最优问题求解与LLM推理的生成验证6、突破传统数学批改!这个AI系统能给你的每一步解题过程打分1、MedSAM2:3D医疗图像和视频的全能分割模型图片MedSAM2模型通过在超过45.5...
2025-04-09 06:32:51 974浏览 0点赞 0回复 0收藏
图片图1:(A)我们的分支合并蒸馏方法的简化图解。(1)在分支阶段,初始模型(骨干网络)的每个副本都在不同领域的知识上进行训练;(2)在合并阶段,模型基于ArceeFusion规则进行合并。(B)不同LLM模型的性能比较(Mustar,2025)。TinyR132BPreview在科学、数学和编程领域的表现优于同等规模的蒸馏模型,并达到了与DeepseekR1相当的结果。这里的LiveCodeBench指的是完整LiveCodeBench的24.0825.02子集。你是否好奇:为什么大语言模型一...
2025-03-27 07:13:28 1219浏览 0点赞 0回复 0收藏
Gemma3是谷歌新推出的最先进多模态(文本+图像)模型,有1B、4B、12B和27B四种规模。现已在Unsloth支持,Gemma3拥有128K上下文窗口和多语言支持。(1)使用Unsloth的Colab笔记本微调Gemma3。Unsloth修复了一些Gemma3训练问题。(2)Unsloth使Gemma3(12B)微调速度提升1.6倍,VRAM使用减少60%,在48GBGPU上比使用FlashAttention2的环境能处理6倍更长的内容。(3)Unsloth在HuggingFace这里上传了所有版本的Gemma3,包括28位GGUF...
2025-03-17 00:41:43 2517浏览 0点赞 0回复 0收藏
挑战LLM逻辑推理极限!新基准TEXTGAMES能否揭开大模型的短板?AI.x社区1、大模型的逻辑推理能力究竟如何?近年来,大语言模型(LLMs)在自然语言理解、生成任务等方面取得了突破性进展,甚至能在数学推理、常识推理等领域展现出不俗的表现。然而,这些模型是否真正具备深入的逻辑推理能力?它们能否像人类一样,通过不断尝试和反思,最终解决复杂的难题?来自研究团队的一项最新研究引入了一个全新的TEXTGAMES基准,该基准通过...
2025-03-17 00:38:58 1416浏览 0点赞 0回复 0收藏
想象一下,如今的AI世界里,大模型如GPT4、Claude动辄上百亿参数,能力惊人却耗资巨大,像是一辆辆豪华跑车,虽快却烧油无数。普通人或中小企业想用AI解决问题时,常常被高昂的成本挡在门外。可就在这时候,微软扔出了一颗“重磅炸弹”——Phi4Mini和Phi4Multimodal。这两个小巧的模型,参数量仅3.8亿,却在语言、数学、编码甚至多模态任务上表现出色,堪称“小身躯,大能量”。这不禁让人好奇:微软是怎么让“小个子”打败“大...
2025-03-05 10:00:26 2690浏览 0点赞 0回复 0收藏
图片在大模型训练领域,显存一直是一个让研究者和开发者头疼的问题。特别是在进行长文本上下文训练时,动辄需要几百GB的显存需求,这让很多研究者望而却步。不过最近,AI基础设施优化团队Unsloth带来了一个重大突破他们推出的新算法可以让GRPO训练所需显存减少高达90%!文章公布了Llama3.1(8B)GRPO在Colab上notebook,见:https:colab.research.google.comgithubunslothainotebooksblobmainnbLlama3.1(8B)GRPO.ipynb1、从510GB...
2025-02-24 11:15:23 2396浏览 0点赞 0回复 0收藏
图片想知道ChatGPT这样的大语言模型是如何炼成的吗?今天带你揭开大模型训练的神秘面纱,看看在数百个GPU上协同训练大语言模型的技术秘密。为什么这很重要?曾几何时,训练大语言模型是少数顶级研究实验室的专利。虽然现在我们可以下载Llama或DeepSeek这样的开源模型,但最具挑战性的部分——训练代码、知识和技术仍然隐藏在复杂性之后。这些关键知识分散在众多论文和私有代码库中,让大多数开发者和研究者望而却步。图片图片深...
2025-02-24 11:12:54 1753浏览 0点赞 0回复 0收藏
图片1、为什么我们需要更强大的AI推理能力?在当今时代,人工智能不仅要能够处理简单的对话和生成任务,更要具备像人类一样的推理能力。无论是解决复杂的数学问题,还是编写高质量的代码,甚至是进行科学推理,这些都需要AI具备强大的推理能力。而今天要介绍的OpenThinker32B,正是在这个方向上取得的重要突破。图片2、OpenThinker32B:开源推理的新标杆这个模型最令人兴奋的地方在于它的开放性和强大性能。研究团队通过三个关...
2025-02-14 14:02:30 1626浏览 0点赞 0回复 0收藏
图片RLHF的规模化之谜:真的值得无限投入算力吗?强化学习自人类反馈(RLHF)已成为大语言模型(LLM)后训练的关键步骤,帮助ChatGPT、Llama等模型更符合人类偏好。然而,RLHF是否像预训练那样,能通过增加算力和数据带来持续提升?清华大学与知乎AI的最新研究对此进行了系统性分析,揭示了RLHF的规模化极限,并提出优化策略。图片研究方法:三大核心变量的深入探究研究团队围绕模型规模、数据多样性、推理计算预算三大因素,训...
2025-02-06 15:15:36 1641浏览 0点赞 0回复 0收藏
图片1.问题:单一模型自我提升的瓶颈近年来,大语言模型(LLMs)如GPT4取得了显著进展,但这些模型的性能仍然受限于已有的训练数据。尽管通过生成合成数据进行自我微调成为提升模型的主流方法,但随着微调轮次的增加,性能提升会迅速进入“收益递减”状态,模型的多样性和推理能力难以进一步提高。这种瓶颈限制了语言模型在复杂推理任务中的表现。图片2.方法:多智能体协作微调(MultiagentFinetuning)论文提出了一种全新框架...
2025-01-22 13:04:33 2316浏览 0点赞 0回复 0收藏
图片1.科研难题:时间长、成本高、效率低科学发现往往是一个漫长且昂贵的过程,许多优秀的研究创意因资源限制被搁置。现有的自动化工具尝试让大语言模型(LLMs)充当“科研助手”,但却面临成果质量、可行性以及研究细节等问题。为解决这些痛点,AgentLaboratory应运而生——这是一种基于LLM的全自动科研框架,它不仅能高效完成文献综述、实验设计和代码生成,还能输出完整的研究报告。图片2.核心创新:让AI协助而非取代科学家A...
2025-01-13 11:17:54 2107浏览 0点赞 0回复 0收藏
1、当ChatGPT爆火后,大语言模型LLM的完整修炼之路图片从ChatGPT横空出世以来,大语言模型(LLM)已经成为了AI领域最炙手可热的研究方向。最近发表的这篇综述性论文为我们全面解析了LLM从训练到推理的完整技术路线图。图片纵观LLM的发展历程,我们见证了一个重要的技术演进过程:从最早的统计语言模型(SLM),到基于神经网络的语言模型(NLM),再到以ELMo为代表的预训练语言模型(PLM)。而真正的突破性进展,则是Transformer架构的...
2025-01-03 13:10:38 2017浏览 0点赞 0回复 0收藏
1、AIAgent的"紧箍咒":一文读懂agent的治理难题与解决方案图片随着AIAgent能力的不断提升,如何确保这些能够自主完成复杂任务的智能代理安全可控,成为了一个亟待解决的问题。一篇最新发表的白皮书深入分析了AIAgent的治理挑战,并提出了一套切实可行的安全治理框架。让我们先看一个生动的例子:假设一个AI助手被要求帮用户购买制作日式芝士蛋糕的材料,但它却错误地订了一张飞往日本的昂贵机票。这个案例揭示了AIAgent治理...
2025-01-03 13:03:04 2126浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期的论文:1、为什么Transformer难以学会搜索?一项新研究揭示关键原因图片搜索是许多重要任务(如推理、规划和导航)的核心能力,但最新研究表明,Transformer架构的大模型在搜索任务上表现不佳。那么,这是数据不足、模型参数不够,还是Transformer架构本身的限制?为探究这一问题,研究者采用了一个基础的图连通性问题作为测试平台,深入分析Transfo...
2024-12-25 11:57:11 2109浏览 0点赞 0回复 0收藏
大模型领域的发展日新月异,每天都有许多有趣的论文值得深入品读。下面是本期的论文:1、让AI自主进化:语言代理的适配机制激活新范式2、OmniDocBench:为PDF文档解析设立多维“标杆”1、让AI自主进化:语言代理的适配机制激活新范式图片人工智能代理是否可以像人类一样,根据任务需求自主调整自己的工作方式?现有语言代理(LanguageAgents,LAs)通常依赖固定的机制或预设顺序来完成任务,但这限制了它们在开放世界场景中的灵...
2024-12-17 12:50:13 2358浏览 0点赞 0回复 0收藏