🚀 Mistral NeMo:AI界的新星🌟-mistral-nemo
摘要
Mistral NeMo,一个由Mistral AI和NVIDIA合作开发的12B模型,以其大上下文窗口和高准确性在AI领域引起轰动。它不仅易于集成,还不断通过社区反馈进行更新,满足用户对高性能和易用性的需求。

内容
Mistral NeMo,一款由NVIDIA联合开发的12B开源AI模型,以其128k令牌的大上下文窗口和卓越的推理、世界知识和编码准确性,在同类模型中独树一帜。🌐 它基于标准架构,易于使用,可无缝替换Mistral 7B模型。🔧 在Hugging Face社区中,Mistral NeMo因其出色的性能和创新特性受到广泛关注。👀 与Gemma 2 9B和Llama 3 8B等领先模型相比,Mistral NeMo在自然语言处理(NLP)和代码生成等任务上展现了更高的准确性。📈 用户期待Mistral NeMo在提供高性能的同时,增加更多定制选项,提高易用性,并加强社区参与。🤝
Run the model locally
Id
994f3b8b7801
7bb1e26a5ed5
afa0d9b8759f
affbdc0a347a
09c8706f02f4
864043847fc7
994f3b8b7801
2b87a40ca999
1da0ebbdb7ca
2c2b8e074f09
0fc0a9ed80c9
f811366ff2b3
d0e3d91c3c3e
5fc038ec8027
7a5dbe4123f4
b91eec34730f
Model
12b
12b-instruct-2407-fp16
12b-instruct-2407-q2_K
12b-instruct-2407-q3_K_L
12b-instruct-2407-q3_K_M
12b-instruct-2407-q3_K_S
12b-instruct-2407-q4_0
12b-instruct-2407-q4_1
12b-instruct-2407-q4_K_M
12b-instruct-2407-q4_K_S
12b-instruct-2407-q5_0
12b-instruct-2407-q5_1
12b-instruct-2407-q5_K_M
12b-instruct-2407-q5_K_S
12b-instruct-2407-q6_K
12b-instruct-2407-q8_0
Size
7.1GB
25GB
4.8GB
6.6GB
6.1GB
5.5GB
7.1GB
7.8GB
7.5GB
7.1GB
8.5GB
9.2GB
8.7GB
8.5GB
10GB
13GB