🚀 编程新伙伴:Phind CodeLlama 开源模型来袭!-phind-codellama
摘要
Phind CodeLlama是一款强大的代码生成模型,以其高效和易用性在开发者中迅速走红。它不仅能够理解复杂的编程指令,还能生成高质量的代码,是提升编程效率的不二之选。

内容
Phind CodeLlama,一款基于CodeLlama 34B的代码生成模型,专为指令性用例进行了微调。🔥 它有两个版本:v1和v2。v1基于CodeLlama 34B和CodeLlama-Python 34B,而v2则在v1的基础上,额外训练了1.5B个高质量编程相关数据。👨💻 使用场景多样,无论是CLI还是API,都能轻松调用。例如,通过API生成C++的链表实现只需一行命令。📝 但请注意,34b模型至少需要32GB的RAM。💻 这款模型以其出色的性能和广泛的应用场景,受到了开发者社区的热烈反馈和高度评价。
Run the model locally
Id
566e1b629c44
d0ddded66c14
bec19e8c92a4
ccb9074a8061
ec960206aec5
3f3a01944dd3
2fdf965466dc
c3824169defc
bec19e8c92a4
1e799451044b
9db39448a8ce
93eea7c40d0a
cf6a273569bd
360441d0c9a7
29b239cdf720
c6e28b3d23b5
947f17e83d4f
29b33e343713
28dc02b3983c
900695f5a6da
dab76ba3bf38
a6d5f0d91c7c
b9d92fb9d11a
cb1cb323ea8d
7ba4e94413d0
d47ea0524c33
bd2544a8a868
7a3d95330e66
bcfdda4b8adc
3160eec253d1
2a9dd324831c
ffad854916fa
566e1b629c44
f625b25bd3f0
b8f09c086e17
1cbabad8eaf0
c7405152b04e
a199982685d4
566e1b629c44
5501c45c64ca
054af98f0f54
0e53590617a2
6f980beef3c6
dd20f2f822e3
eb9f2c7a1c66
9869afbcdbc2
c8e2f15ce087
b6329a948210
Model
34b
34b-fp16
34b-python
34b-python-fp16
34b-python-q2_K
34b-python-q3_K_L
34b-python-q3_K_M
34b-python-q3_K_S
34b-python-q4_0
34b-python-q4_1
34b-python-q4_K_M
34b-python-q4_K_S
34b-python-q5_0
34b-python-q5_1
34b-python-q5_K_M
34b-python-q5_K_S
34b-python-q6_K
34b-python-q8_0
34b-q2_K
34b-q3_K_L
34b-q3_K_M
34b-q3_K_S
34b-q4_0
34b-q4_1
34b-q4_K_M
34b-q4_K_S
34b-q5_0
34b-q5_1
34b-q5_K_M
34b-q5_K_S
34b-q6_K
34b-q8_0
34b-v2
34b-v2-fp16
34b-v2-q2_K
34b-v2-q3_K_L
34b-v2-q3_K_M
34b-v2-q3_K_S
34b-v2-q4_0
34b-v2-q4_1
34b-v2-q4_K_M
34b-v2-q4_K_S
34b-v2-q5_0
34b-v2-q5_1
34b-v2-q5_K_M
34b-v2-q5_K_S
34b-v2-q6_K
34b-v2-q8_0
Size
19GB
67GB
19GB
67GB
14GB
18GB
16GB
15GB
19GB
21GB
20GB
19GB
23GB
25GB
24GB
23GB
28GB
36GB
14GB
18GB
16GB
15GB
19GB
21GB
20GB
19GB
23GB
25GB
24GB
23GB
28GB
36GB
19GB
67GB
14GB
18GB
16GB
15GB
19GB
21GB
20GB
19GB
23GB
25GB
24GB
23GB
28GB
36GB