本文对基于适配器的可迁移推荐系统进行了实验探索和深入研究。发现在文本推荐方面,基于适配器的可迁移推荐取得了有竞争力的结果;在图像推荐方面,基于适配器的可迁移推荐略落后于全量微调。后续本文对四种著名的适配器微调方法进行了基准测试,并深入研究了可能影响适配器微调在推荐任务中的几个关键因素。论文题目:ExploringAdapterbasedTransferLearningforRecommenderSystems:EmpiricalStudiesandPracticalInsights论文链...
2024-03-28 14:27:29 793浏览 0点赞 0回复 0收藏
论文题目:PoSE:EfficientContextWindowExtensionofLLMsviaPositionalSkipwiseTraining论文链接:https:arxiv.orgabs2309.10400代码链接:https:github.comdwzhupkuPoSE一、研究简介大型语言模型(LLMs)通常有一个预定义的上下文窗口大小,这限制了它们在长输入的场景中的使用。为了使LLMs适应更长的输入,通常需要用目标长度的样本对其进行微调(全长微调),由此导致训练成本十分昂贵。举例来说,在PositionalInterpolation[...
2024-03-28 14:15:43 945浏览 0点赞 0回复 0收藏
最近在大型视觉语言模型(LVLMs)上的进展使得语言模型能够处理多模态输入,但这需要显著的计算资源,特别是在端侧设备上进行部署。本研究旨在通过采用高质量训练数据,弥合传统规模LVLMs与轻量版本之间的性能差距。为此,我们利用GPT4V构建了一个高质量的合成数据集,包含(1)具有详细文本描述的图文对;和(2)复杂的推理指令和详细的答案。利用该训练数据,我们训练了一个轻量级的多模态模型ALLaVA3B,在同量级的LVLMs的12...
2024-03-28 13:52:55 678浏览 0点赞 0回复 0收藏
美团、浙大等于近日推出了MobileVLMV2,其中包含参数量1.7B、3B、以及7B的一系列视觉语言模型。代码与模型以及适配的端侧推理方案都已开源。论文地址:https:arxiv.orgabs2402.03766模型地址:https:huggingface.comtgv代码地址:https:github.comMeituanAutoMLMobileVLM大模型涌向移动端的浪潮愈演愈烈,作为第一个针对端侧的视觉语言模型的工作,归功于MobileVLM在小参数量下的强大性能和完善的端侧实时运行端侧推理方案,Mob...
2024-03-28 13:48:15 2110浏览 0点赞 0回复 0收藏
随着大语言模型在现实场景中逐渐落地(例如ChatGPT和Gemini),其生成内容的安全性也开始逐渐被大众关注。通常来讲,我们希望大模型避免生成包含危险内容的回复,从而减少对用户的不良影响,因此评测一个大模型的安全性并分析其弱点成为了一件急需完成的事情。上海人工智能实验室研究团队提出了新的大模型安全BenchmarkSALADBench。相比以往的Benchmarks,SALADBench有以下优势:包含三个层次结构,数量超2万条的大规模分类数据...
2024-03-28 13:15:09 1617浏览 0点赞 0回复 0收藏
引言可控文本生成(ControlledTextGeneration,CTG)是大语言模型(LargeLanguageModels,LLMs)文本生成的一个重要研究领域,旨在创造出符合特定标准或属性的文本。这包括调整文本的情绪倾向、确保内容安全性、或满足具体主题要求等。目前CTG实现的主流方式是结合有监督微调(SupervisedFineTuning,SFT)和人类反馈强化学习(ReinforcementLearningfromHumanFeedback,RLHF)的范式,通过直接改变模型参数以适应特定的输出要求。...
2024-03-28 13:07:08 1032浏览 0点赞 0回复 0收藏
单目动态场景(MonocularDynamicScene)是指使用单眼摄像头观察并分析的动态环境,其中场景中的物体可以自由移动。单目动态场景重建对于理解环境中的动态变化、预测物体运动轨迹以及动态数字资产生成等任务至关重要。随着以神经辐射场(NeuralRadianceField,NeRF)为代表的神经渲染的兴起,越来越多的工作开始使用隐式表征(implicitrepresentation)进行动态场景的三维重建。尽管基于NeRF的一些代表工作,如DNeRF,Nerfies,Kp...
2024-03-28 13:02:41 910浏览 0点赞 0回复 0收藏