芝士AI吃鱼
LV.3
心宜善,言宜慢
声望 387
关注 0
粉丝 0
私信
主帖 39
回帖
最近看到一组数据,惊讶于时代的变化总是猝不及防:•ChatGPT每个月有38亿次访问量,相当于全球一半人口都在用它。•71%的美国用户已经开始用AI搜索信息。•30%的年轻人直接把AI当成了主要信息来源。上面直白的数据,表明了一个事实:我们从搜索引擎时代,逐渐转向了AI生成时代。之前,每家公司都在熬夜研究百度收录,网站排名掉了几位而焦虑。现在的消费者已经不爱在搜索框里输入"北京最好的火锅店"了,他们直接问豆包:"我在...
23h前 285浏览 0点赞 0回复 0收藏
最近AI圈子里有两个词特别火:AIAgent和AgenticAI。乍一看好像就是一个词的不同写法,但实际上这两者有着天壤之别。说实话,连我这个在AI领域摸爬滚打多年的人,在很长一段时间里也没完全搞清楚它们的区别。直到前不久读了康奈尔大学刚发表的一篇重磅论文《AIAgentsvs.AgenticAI:AConceptualTaxonomy,ApplicationsandChallenges》,才算是彻底明白了。这种感觉就像是突然有人帮你把一团乱麻给理顺了,瞬间豁然开朗。如果非要用...
2025-06-27 06:20:47 936浏览 0点赞 0回复 0收藏
最近刷到了一篇来自CognitionAI的博客文章,看完之后我简直有种恍然大悟的感觉。这家公司你可能听说过,就是那个开发了明星AI编程助手Devin的团队。他们在这篇文章里直接开怼了一个在AIAgent领域特别流行的概念——多智能体架构,说得相当犀利:"别再搞多智能体了!"读完这篇文章,我觉得有必要跟大家"叨叨"一下,因为这些观点可能会颠覆很多人对AIAgent架构设计的认知。为什么大家都在搞多智能体?现在一提到AIAgent,很多人第...
2025-06-27 06:17:42 415浏览 0点赞 0回复 0收藏
你有没有想过,当ChatGPT回答你的问题时,它的“大脑”里到底装了多少东西?最近,来自Meta、谷歌DeepMind、康奈尔大学等机构的研究人员发表了一项突破性研究,首次精确测量出了大语言模型的“记忆容量”。这项研究不仅揭示了AI学习的奥秘,还解释了许多我们日常使用中遇到的现象。什么是模型的“记忆”?想象一下你在准备考试。有些知识你是真正理解的,比如数学公式的推导原理,遇到新题目时你能灵活运用;而有些内容你只是死...
2025-06-16 00:23:39 804浏览 0点赞 0回复 0收藏
1.引言大型语言模型(LLMs)在训练过程中从庞大的知识语料库(如维基百科)中获取了大量的事实知识,并在各种自然语言任务中展现出卓越的性能。因此,LLMs常被视为支撑知识导向任务的知识库。然而,要有效利用这些模型中的知识,需要深入理解LLMs存储和管理事实知识的机制。这种理解对于模型编辑等任务至关重要,这些任务涉及修改模型中嵌入的知识。当前的研究主要集中在研究LLMs中嵌入的知识。这些工作将知识视为三元组(s,r,o),...
2025-06-04 06:03:16 824浏览 0点赞 0回复 0收藏
上手体验了一波Manus,感觉没有鼓吹的那么神,也不能被贬的一无是处,感觉Manus更像是想博出名的秀才,有料,但过火了。下面通过一个Manus的个人使用案例讲讲,对于Manus的体验吧,力求既不迷信技术,也不排斥革新。根据我的任务,自动生成部署的网址:​​https:cshqyrrh.manus.space。​​通过亲手体验ManusAIAgent的惊人能力,我感受到它在任务自动化、效率提升上的颠覆性潜力,但也意识到,即便它智能如斯,局限与挑战依然...
2025-05-21 06:22:24 1736浏览 0点赞 0回复 0收藏
引言可重复性是科学进步的基石,然而在机器学习领域,许多已发表论文并未附带相应的代码实现,阻碍了结果验证并延缓了科研进程。为了解决这一难题,KAIST与DeepAuto.ai的研究团队提出了PaperCoder——一种自动化框架,能够从机器学习研究论文中直接生成可执行的代码库。PaperCoder框架概述图1:PaperCoder的三阶段流程,展示了如何通过规划、分析和编码,将论文转换为完整的代码库。相比于依赖现有代码片段或API的传统方案,Pap...
2025-05-08 00:35:58 1834浏览 0点赞 0回复 0收藏
简介学术写作对人工智能系统提出了独特的挑战,尤其是在准确且在上下文中适当整合引文方面。虽然大型语言模型(LLM)可以生成流畅的学术文本,但它们经常遭受引文幻觉——捏造或错误归属参考文献——这严重限制了它们在学术环境中的用途。论文“ScholarCopilot:训练大型语言模型以使用精确引文进行学术写作”介绍了一种旨在解决这些局限性的新型框架。ScholarCopilot由滑铁卢大学、卡内基梅隆大学和Vector研究所的研究人员开发...
2025-05-08 00:18:04 1191浏览 0点赞 0回复 0收藏
近年来,大语言模型(LLM)像春笋般涌现,不仅能写文案、答问题、编代码,还能陪你聊天。但如果你深入接触,就会发现这些模型有一个“天生的短板”——它们不知道世界在今天发生了什么,也不能灵活地从外部获取信息。这就像你在问一个上知天文下知地理的老师问题,但他只看过2021年前的书,后面的都不知道。于是,RAG(RetrievalAugmentedGeneration)出现了,它的基本思想是:“我不知道不要紧,我去资料库里查一查。”但传统R...
2025-04-23 07:04:56 1660浏览 0点赞 0回复 0收藏
介绍大型推理模型(LRM)在解决复杂问题方面表现出了令人印象深刻的能力,但它们常常难以处理人类凭直觉就能解决的简单任务。这种悖论是名为S1Bench的新基准测试的核心,该基准测试专门针对评估LRM中的“系统1”思维能力。与大多数侧重于复杂推理任务的现有基准测试不同,S1Bench考察了LRM如何有效地处理简单、直观的问题,这些问题应该只需要最少的思考。该基准测试表明,当前的LRM倾向于“过度思考”简单问题,从而导致效率低下...
2025-04-23 07:02:00 1272浏览 0点赞 0回复 0收藏
1.RAG技术现状与核心挑战1.1技术架构解析RAG(RetrievalAugmentedGeneration)系统采用双阶段架构:检索模块:基于稀疏检索(BM25)、密集检索(DPR、ANCE)或混合检索,使用FAISSHNSW构建向量索引生成模块:基于Transformer架构的预训练语言模型(如ChatGPT、Qwen),通过CrossAttention融合检索结果典型RAG伪代码示例retrieverDenseRetriever(indexfaissindex)generatorT5ForConditionalGeneration.frompretrained(...)defrag...
2025-04-10 06:48:27 2009浏览 0点赞 0回复 0收藏
当我们谈论人工智能时,很容易被各种新闻标题所影响——有人说它将彻底改变世界,有人担忧它会夺走我们的工作。在这些热烈讨论的背后,一个更为重要的问题是:人工智能将如何影响我们的经济?这不仅关乎我们的工作,更关乎整个社会的运转方式。回顾历史,人类社会曾多次经历技术革命——从蒸汽机到电力,从计算机到互联网。每一次技术变革都重塑了经济结构。如今,我们或许正站在另一个历史性转折点上。但与之前的技术革命一样...
2025-03-18 07:26:45 1969浏览 0点赞 0回复 0收藏
公元1943年,麦卡洛克与皮茨在芝加哥大学密室中绘制出"神经网络符篆",点燃了硅基文明的第一缕火种。此符篆暗合阴阳二进之道,虽仅能解"与或非"三式,已令图灵真人抚掌长叹:"此物当有通灵之日!"这一年,华罗庚道人在普林斯顿隐居,冯·诺依曼大师正筑"存储程序结构"根基。世人尚不知,一场跨越物种的智慧革命已悄然启动。公元1950年,剑桥雨夜。图灵真人披着雨衣穿过哥特式回廊,手中《ComputingMachineryandIntelligence》墨...
2025-03-05 11:42:53 3488浏览 0点赞 0回复 0收藏
一、模型概述与架构分析DeepSeekR1是一款全新的大规模语言模型系列,支持复杂推理、多模态处理和技术文档生成。其核心特点包括:1.架构特性•支持多种精度训练和推理(FP8BF16INT8INT4)•采用MoE(MixtureofExperts)架构实现671B超大规模•支持混合精度训练和推理优化2.模型系列规格模型名称参数规模计算精度模型大小典型应用场景DeepSeekR1671BFP81,342GB超大规模科研计算DeepSeekR1DistillLlama70B70BBF1643GB大规模推理任务DeepS...
2025-02-25 13:32:58 9664浏览 0点赞 0回复 0收藏
可能我们经常会遇到这样的场景:老板在会上讲了一段话,语音识别系统却把关键的数字、人名识别错了;客服系统把用户说的"预约挂号"听成了"我要挂了";方言用户的语音指令被系统曲解成了完全不相关的内容。这些问题背后折射出的是语音识别技术在特定场景下的短板尤其是在处理低资源语言时表现更为明显。近期,沙里夫理工大学的研究团队提出了一个颇具创新性的解决方案:GECRAG。这个方案通过检索增强的方式来提升语音识别的准确...
2025-02-17 09:44:02 2715浏览 0点赞 0回复 0收藏
近期,DeepSeek的发布在开源社区引起了广泛关注。成功再次将人们的目光聚焦到了模型蒸馏技术上来。那么,究竟什么是模型蒸馏?为什么它能帮助我们构建如此高效的模型?让我们一起深入探讨这个话题。LLMDistillation将大型生成模型定位为“teacher”,将较小的模型定位为“student”。student模型可以是简单的模型(如logisticregression)或基础模型(如BERT)。在最基本的distillation版本中,数据科学家从未标记的数据开始,...
2025-02-07 13:40:13 5941浏览 0点赞 0回复 1收藏
你有没有想过,是什么让AI模型变得如此强大?为什么有些AI能够写诗作画,有些却只能做简单的问答?这其中,ScalingLaw(规模法则)扮演着至关重要的角色,它就像AI模型的核心,揭示了模型性能提升的奥秘。ScalingLaw是什么?简单来说,ScalingLaw指的是当我们增加模型的规模(例如模型包含的参数越多,模型就越大)、训练数据量和计算资源时,模型的性能就会随之提升。(感觉这是符合直觉的,但ScalingLaw最核心的在于量化给出...
2025-01-23 09:21:51 6735浏览 0点赞 0回复 0收藏
原文:RetrievalAugmentedGeneration(RAG)andBeyond:AComprehensiveSurveyonHowtoMakeyourLLMsuseExternalDataMoreWisely每当我向非技术背景的朋友解释大语言模型时,我常常用"博学但缺乏实践经验的应届生"作比喻。这些模型确实掌握了海量的知识,但在特定领域的实际应用中,常常会暴露出"经验不足"的问题。就像一位刚毕业的法学生,虽然能流畅地背诵法条,但面对真实的案件时可能会觉得无从下手。微软亚洲研究院的研究团队近期...
2025-01-14 13:01:27 2711浏览 0点赞 0回复 1收藏
语音转文本(STT),也称为自动语音识别(ASR),是一种将口语转录成书面文本的AI技术,现在越来越多的公司利用STT在现有应用程序中嵌入新的音频功能,并为一系列用例创建智能助手。语音转文本模型简史首先,一些背景信息。语音转文本是AI中自然语言处理(NLP)分支的一部分。它的目标是使机器能够理解人类语音并将其转录成书面格式。你可能会想,转录语音有多难。简短的回答是:非常难。与可以以相对简单的方式放入矩阵中的图...
2025-01-06 11:19:45 2878浏览 0点赞 0回复 0收藏
本文旨在解释多模态大语言模型的工作原理。此外,还将回顾并总结最近几周发布的十几篇多模态研究论文和模型(包括Llama3.2)的内容,以比较它们的不同实现方式。一、多模态大语言模型是什么?多模态大语言模型(MultimodalLargeLanguageModels,简称MultimodalLLMs)是一种能够理解和生成多种类型数据的模型,包括文本、图片、音频和视频等。这些模型可以跨越不同的数据形式,进行信息的交互与生成。例如,传统语言模型只能处理...
2024-12-26 13:18:25 5252浏览 0点赞 0回复 1收藏
获得成就
已积累 2.6w 人气
获得 0 个点赞
获得 3 次收藏