概述
mxbai-embed-large
是由 mixedbread.ai 开发的一款大型嵌入模型,当前在 Bert-Large 模型类别中达到了 SOTA (State of the Art) 性能。
- 参数量:334M
- 模型架构:BERT
- 量化:F16
- 模型大小:670MB
- 上下文窗口:512
- 许可协议:Apache License Version 2.0, January 2004
- 更新时间:8个月前
- 功能:生成文本嵌入
特点:
- 性能领先:截至 2024 年 3 月,该模型在 MTEB(多任务嵌入基准测试)中取得了 SOTA 表现,超越了如 OpenAI 的
text-embedding-3-large
商用模型,并与体积比其大 20 倍的模型表现相当。
- 优秀泛化能力:模型训练过程中未与 MTEB 数据集重叠,证明其在多个领域、任务及文本长度上的出色泛化性能。
使用方法
1. 拉取模型到本地
运行以下命令将模型拉取到本地磁盘:
ollama pull mxbai-embed-large
2. 调用嵌入 API
模型下载后,可以通过以下几种方式调用 API:
1. 使用 REST API
curl http://localhost:11434/api/embeddings -d '{
"model": "mxbai-embed-large",
"prompt": "Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering"
}'
2. 使用 Python 库
ollama.embeddings(model='mxbai-embed-large', prompt='Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering')
3. 使用 JavaScript 库
ollama.embeddings({ model: 'mxbai-embed-large', prompt: 'Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering' });
参考文档
总结
mxbai-embed-large 是一个面向高级应用的嵌入模型,具有以下优势:
- 性能领先:在嵌入任务中提供卓越的效果,适合复杂场景。
- 高效轻量:仅有 670MB,参数量为 334M,却能与体积比其大 20 倍的模型性能相当。
- 应用广泛:支持 REST API 和多种编程语言调用,方便集成到各种应用中。
该模型非常适合用于 语义搜索、信息检索 和其他需要高质量文本嵌入的场景。