开源

🚀BGE-M3:多语言、多功能的开源NLP神器!

logo

ollama/bge-m3

Local deployment of the model
logo


摘要

BGE-M3,一个由北京人工智能研究院开发的多语言、多功能、多粒度的开源NLP模型,以其卓越的性能和广泛的语言支持在业界获得高度关注。

项目图片

内容

BGE-M3,一款基于XLM-RoBERTa架构的开源模型,以其多功能性、多语言性和多粒度性在NLP领域脱颖而出。🌐 它支持超过100种语言,能处理从短句到长达8192个token的长文档,适用于密集检索、多向量检索和稀疏检索。🔍 在最新的评估中,BGE-M3在密集检索任务中达到了85%的准确率,超越了许多商业模型。🏆

用户期待BGE-M3在可扩展性和定制化方面有所提升,以便更好地适应不同的硬件配置和云环境。🌟 随着模型的不断发展,它有望在多样化的应用中得到更广泛的采用。📈

Run the model locally

Id

790764642607

790764642607

Model

567m

567m-fp16

Size

1.2GB

1.2GB


关键词

自然语言处理 文本向量 推荐系统

分类

多语言支持 信息检索 云计算
正文到此结束
本文目录