
阿里: 开源Qwen3-Embedding Qwen3-Reranker系列模型
一、Qwen3-Embedding 系列模型介绍
二、Qwen3-Reranker 系列模型介绍
三、Qwen3-Embedding 和 Qwen3-Reranker 的优势
6 月 6 日凌晨,阿里巴巴开源了 Qwen3-Embedding 系列模型,包括 Embedding(文本表征)和 Reranker(排序)两个模块,旨在为文本检索、语义匹配等任务提供强大支持。该系列模型基于 Qwen3 基础模型进行训练,在多项基准测试中展现出卓越性能,尤其在多语言支持方面达到行业领先水平。
官方数据显示,Qwen3-Embedding 系列在多语言文本表征任务中表现出色:其中,8B 参数版本在权威评测 MTEB(Massive Text Embedding Benchmark)多语言榜单中位居榜首,得分高达 70.58,超越了多家商业 API 服务。而 Reranker 排序模型则在文本检索任务中显著提升了结果的相关性,特别适用于搜索、推荐等实际场景。
这一系列模型提供了 0.6B、4B、8B 三种不同参数规模的选择,开发者可以根据自身算力需求进行灵活配置。此次开源延续了阿里通义千问(Qwen)系列的技术路线。
目前,该系列模型已在 Hugging Face、ModelScope 和 GitHub 平台开源,用户也可以直接使用阿里云百炼平台提供的最新文本向量模型服务。
一、Qwen3-Embedding 系列模型介绍
Qwen3-Embedding 系列专为文本向量化(Embedding)任务设计,能够将文本(包括自然语言和编程语言)转化为高维向量,从而捕捉其中的语义信息。该系列包含以下三个不同参数规模的模型,以适应不同的应用场景:
- Qwen3-Embedding-0.6B:轻量级模型,适用于资源受限的场景,如移动设备或边缘计算。
- Qwen3-Embedding-4B:在性能与效率之间取得良好平衡,适合大多数企业级应用。
- Qwen3-Embedding-8B:高性能版本,针对复杂任务表现最佳。
这些模型基于 Qwen3 的 Transformer 架构,支持最大 8192 个 token 的输入长度,非常适合长文本处理。根据 Hugging Face 的介绍,该模型在文本检索、代码检索、分类、聚类和双文本挖掘等任务中表现出色,尤其是在多语言场景下优势明显。
具体而言,该系列模型具备以下特性:
- 跨语言检索:通过统一的向量空间,模型能够实现跨语言语义匹配。
- 代码检索:在 MTEB-Code 评测中,Qwen3-Embedding 表现优异,能够根据自然语言描述检索代码片段,特别适合开发者在代码补全、搜索等场景中使用。
- 灵活性:支持用户自定义指令(Instruction),开发者可以根据具体任务调整输入格式,从而提升 1%-5% 的检索性能。
- 高效推理:支持 Flash Attention 2 技术,能够降低内存占用,提升推理速度,适合大规模部署。
Hugging Face 数据显示,截至 2025 年 6 月 5 日,Qwen3-Embedding-8B 在 MTEB 多语言排行榜上以 70.58 分的成绩位居第一,超越了 BGE 等竞争对手。
二、Qwen3-Reranker 系列模型介绍
Qwen3-Reranker 系列是与 Qwen3-Embedding 配套的排序模型,主要用于优化初次检索结果的相关性。该系列模型采用跨编码器(Cross-Encoder)架构,输入查询和文档对,并输出相关性得分。其具备以下优势:
- 高精度排序:通过深度语义分析,Qwen3-Reranker 能够捕捉查询和文档之间的细微相关性,显著提升排序质量。
- 高效推理:优化后的推理速度,结合阿里云 DashVector 服务,能够实现低延迟、高吞吐量。
- 用户自定义:同样支持自定义指令,开发者可以根据任务调整输入格式,提升排序效果。
Hugging Face 数据表明,Qwen3-Reranker 在 MTEB-R、CMTEB-R、MMTEB-R 和 MTEB-Code 等检索子集评测中表现出色。基于 Qwen3-Embedding-0.6B 召回的 Top-100 候选结果进行排序,能够显著提高结果的相关性。
三、Qwen3-Embedding 和 Qwen3-Reranker 的优势
与 BGE(智源)、Sentence-BERT 等模型相比,Qwen3-Embedding 和 Qwen3-Reranker 具备以下优势:
- 性能优势:Qwen3-Embedding-8B 在 MTEB 多语言排行榜上得分 70.58,领先于 BGE。此外,阿里还开源了 GTE 系列模型(如 gte-multilingual-reranker-base),该系列采用更轻量的 ModernBERT 架构,支持 70 + 语言,推理速度提升 10 倍,但由于参数规模较小,性能稍逊于 Qwen3 系列。
- 应用优势:在检索增强生成(RAG)场景中,Qwen3-Embedding 负责生成查询和文档的向量表示,Qwen3-Reranker 则用于优化排序结果。此外,Qwen3-Embedding 生成的向量表示还可以用于分析用户评论的情感倾向,帮助企业优化客户服务。
Qwen3-Embedding 和 Qwen3-Reranker 模型在文本检索和语义匹配任务中展现出了卓越的性能和多语言支持能力,为开发者和企业提供了有力的支持。
本文转载自鸿煊的学习笔记,作者:乘风破浪jxj
