🌟探索Yarn Mistral:开源NLP新贵🚀-yarn-mistral
摘要
Yarn Mistral,一个由Hugging Face支持的开源NLP模型,以其出色的性能和社区活跃度脱颖而出,为各种应用提供强大的语言处理能力。

内容
Yarn Mistral,基于Mistral的开源模型,由Nous Research开发,通过YaRN方法扩展上下文至128k。📚 它支持多种版本,如7b-128k等,大小从3.1GB到7.7GB不等,满足不同需求。🔧 使用CLI或API,如"ollama run yarn-mistral:7b-128k",即可轻松调用。🤖 Hugging Face社区支持,使其性能和可靠性备受信赖。🌐 它在准确性、效率上表现出色,社区贡献不断,满足用户对定制化、集成能力和透明度的需求。🌟
Run the model locally
Id
8e9c368a0ae4
6511b83c33d5
24fcccd3ec98
4801801e65c9
04e1735cc221
c910ed0b2220
150773407811
6511b83c33d5
2f2460d79fe1
b29d79d2f3ef
60021a54efbe
f6e752bb89ba
27a21ac0ee02
e73d718076ea
48e075e27562
d2efb1f4a053
c7d7fcc635b3
8e9c368a0ae4
7e69098a0185
6fec537d7505
2fe3d1edecaa
9f1a8b3eec09
8e9c368a0ae4
0b1ddb2af722
f9434e5ec017
6a3c24b1e938
917060ebb0d8
5efec29a0821
1ac045b0f86f
1fb11cbfb6ad
c3108d901ef7
236ce568b73c
Model
7b
7b-128k
7b-128k-fp16
7b-128k-q2_K
7b-128k-q3_K_L
7b-128k-q3_K_M
7b-128k-q3_K_S
7b-128k-q4_0
7b-128k-q4_1
7b-128k-q4_K_M
7b-128k-q4_K_S
7b-128k-q5_0
7b-128k-q5_1
7b-128k-q5_K_M
7b-128k-q5_K_S
7b-128k-q6_K
7b-128k-q8_0
7b-64k
7b-64k-q2_K
7b-64k-q3_K_L
7b-64k-q3_K_M
7b-64k-q3_K_S
7b-64k-q4_0
7b-64k-q4_1
7b-64k-q4_K_M
7b-64k-q4_K_S
7b-64k-q5_0
7b-64k-q5_1
7b-64k-q5_K_M
7b-64k-q5_K_S
7b-64k-q6_K
7b-64k-q8_0
Size
4.1GB
4.1GB
14GB
3.1GB
3.8GB
3.5GB
3.2GB
4.1GB
4.6GB
4.4GB
4.1GB
5.0GB
5.4GB
5.1GB
5.0GB
5.9GB
7.7GB
4.1GB
3.1GB
3.8GB
3.5GB
3.2GB
4.1GB
4.6GB
4.4GB
4.1GB
5.0GB
5.4GB
5.1GB
5.0GB
5.9GB
7.7GB