🐋 大模型新宠:Stable Beluga 开源模型来袭!-stable-beluga
摘要
Stable Beluga以其出色的性能和社区支持,成为开源模型中的佼佼者。这款基于Llama 2微调的模型,以其易用性和高效推理能力,满足了用户对大模型的期待。

内容
Stable Beluga,由Stability AI开发的开源语言模型,以其卓越的推理能力和易用性在机器学习界引起轰动。🌟 基于Llama 2并经过Orca风格数据集微调,提供7B、13B和70B参数版本。🎯 无论是API还是CLI,使用都超简单!启动Ollama服务器,一条命令即可运行模型。🚀 内存需求?7B至少8GB,13B至少16GB,70B至少64GB。🧠 模型变体丰富,4位量化默认,更高量化级别意味着更精确但速度慢,内存需求大。📝 用户反馈积极,期待文档完善和性能提升。
Run the model locally
Id
e5d7b4def1b8
ac691f885162
31f4bfb3a050
b1f8fdd5c504
2af19c43ca9f
fcaba894245c
43fac1166987
4f719468cd78
ac691f885162
6d7cc4241e83
409417bcf275
61a6317dbeb1
ebf894679227
33fa2f4b882e
72350608e9fc
60a6dc36d412
dcad1b848fac
238aa61ea830
6efd37ee83ff
0bc71d6c7953
3cbf7b1f5b08
15cf6a892614
50bbba9133ff
31f4bfb3a050
6f2d4b51d4ee
a9667c2e7a79
d09f155890f9
e94ee1e01926
312114b54a99
fc28b6e46237
dc346a6c7ec1
0bda093a53a7
ef96a5763db5
b54b49ca7642
ad7a5c22378e
5a22f57cfba1
029e59da8e4f
c7c708cc367a
e5d7b4def1b8
bbdc02c211db
8b8fdc4068e8
9761240d2719
e377545d3a30
a325f866b912
879cd0824514
23468cda5a29
f81787691a8c
6589e954f98e
Model
7b
13b
70b
13b-fp16
13b-q2_K
13b-q3_K_L
13b-q3_K_M
13b-q3_K_S
13b-q4_0
13b-q4_1
13b-q4_K_M
13b-q4_K_S
13b-q5_0
13b-q5_1
13b-q5_K_M
13b-q5_K_S
13b-q6_K
13b-q8_0
70b-fp16
70b-q2_K
70b-q3_K_L
70b-q3_K_M
70b-q3_K_S
70b-q4_0
70b-q4_1
70b-q4_K_M
70b-q4_K_S
70b-q5_0
70b-q5_1
70b-q5_K_M
70b-q5_K_S
70b-q6_K
70b-q8_0
7b-fp16
7b-q2_K
7b-q3_K_L
7b-q3_K_M
7b-q3_K_S
7b-q4_0
7b-q4_1
7b-q4_K_M
7b-q4_K_S
7b-q5_0
7b-q5_1
7b-q5_K_M
7b-q5_K_S
7b-q6_K
7b-q8_0
Size
3.8GB
7.4GB
39GB
26GB
5.4GB
6.9GB
6.3GB
5.7GB
7.4GB
8.2GB
7.9GB
7.4GB
9.0GB
9.8GB
9.2GB
9.0GB
11GB
14GB
138GB
29GB
36GB
33GB
30GB
39GB
43GB
41GB
39GB
47GB
52GB
49GB
47GB
57GB
73GB
13GB
2.8GB
3.6GB
3.3GB
2.9GB
3.8GB
4.2GB
4.1GB
3.9GB
4.7GB
5.1GB
4.8GB
4.7GB
5.5GB
7.2GB