【期刊合集】065 期 代码界的五大瑞士军刀!开源代码生成神器效率革命:谁是你的最佳拍档?
每一个开源项目,都是改变世界的种子
从2B到34B参数量级,5款顶级开源代码模型横评:CodeGemma智能补全、CodeUp多语言适配、CodeGeeX4性能平衡、Codestral长文本霸主、
Phind CodeLlama指令大师——开发者必备的秘密武器库,总有一款能让你写代码像搭积木!
🚀CodeGemma:编程界的新宠儿🌟
ollama/codegemma
摘要
CodeGemma是一个强大的开源模型,以其在代码补全和生成任务中的卓越性能而闻名。它支持多种编程语言,并能显著提高开发效率。
内容
CodeGemma,一个由Hugging Face开发的开源语言模型,正以其在自然语言处理和代码生成任务中的卓越表现,吸引着AI界的广泛关注。👀
这款模型拥有多个变体,包括专为自然语言到代码对话和指令跟随而优化的"instruct"变体,专注于代码补全和生成的"code"变体,以及提供快速代码补全的2B变体。🔧
CodeGemma的优势在于其智能的代码补全和生成能力,能够减少错误和调试时间,支持多种编程语言,并能集成到开发环境中,提高工作效率。🚀
它支持中间填充(FIM)功能,这对于自动补全或编码助手工具非常有用。🛠️
CodeGemma在多个学术基准测试中表现出色,特别是在代码补全和生成任务上。📊
models:
id | model | size |
---|---|---|
926331004170 | 2b | 1.6GB |
0c96700aaada | 7b | 5.0GB |
926331004170 | 2b-code | 1.6GB |
cb6daa72179a | 2b-code-fp16 | 5.0GB |
ac67535c1552 | 2b-code-q2_K | 1.2GB |
c6a3ccbac1d9 | 2b-code-q3_K_L | 1.5GB |
f0346e149522 | 2b-code-q3_K_M | 1.4GB |
6b80287fa068 | 2b-code-q3_K_S | 1.3GB |
d90011175ac4 | 2b-code-q4_0 | 1.6GB |
801d0eb569e7 | 2b-code-q4_1 | 1.7GB |
b593bb191655 | 2b-code-q4_K_M | 1.6GB |
259e48057973 | 2b-code-q4_K_S | 1.6GB |
becd697505ba | 2b-code-q5_0 | 1.8GB |
820b54de78f0 | 2b-code-q5_1 | 1.9GB |
9617b59cd865 | 2b-code-q5_K_M | 1.8GB |
e9b5e9befa9e | 2b-code-q5_K_S | 1.8GB |
fead9028c732 | 2b-code-q6_K | 2.1GB |
2be70d05c9ca | 2b-code-q8_0 | 2.7GB |
962c58660bab | 2b-code-v1.1-fp16 | 5.0GB |
75ba44f889ab | 2b-code-v1.1-q2_K | 1.2GB |
6c9dbaeb7d96 | 2b-code-v1.1-q3_K_L | 1.5GB |
7d484bdf35ae | 2b-code-v1.1-q3_K_M | 1.4GB |
d3a7d018d4c9 | 2b-code-v1.1-q3_K_S | 1.3GB |
926331004170 | 2b-code-v1.1-q4_0 | 1.6GB |
2128822ebc78 | 2b-code-v1.1-q4_1 | 1.7GB |
718e1de01c13 | 2b-code-v1.1-q4_K_M | 1.6GB |
a8166a21676a | 2b-code-v1.1-q4_K_S | 1.6GB |
2eb16b352c75 | 2b-code-v1.1-q5_0 | 1.8GB |
2b872b7f7fcf | 2b-code-v1.1-q5_1 | 1.9GB |
421f855bcae9 | 2b-code-v1.1-q5_K_M | 1.8GB |
ba1202a14d4e | 2b-code-v1.1-q5_K_S | 1.8GB |
d06cfbc95341 | 2b-code-v1.1-q6_K | 2.1GB |
e7a5cfdf2f8b | 2b-code-v1.1-q8_0 | 2.7GB |
926331004170 | 2b-v1.1 | 1.6GB |
aee9a63c13b9 | 7b-code | 5.0GB |
0e5867ab03b0 | 7b-code-fp16 | 17GB |
9a5f3c6225e2 | 7b-code-q2_K | 3.5GB |
421c03d31cc9 | 7b-code-q3_K_L | 4.7GB |
b000753cb7f5 | 7b-code-q3_K_M | 4.4GB |
59358d79fbb3 | 7b-code-q3_K_S | 4.0GB |
aee9a63c13b9 | 7b-code-q4_0 | 5.0GB |
9067dd660ab0 | 7b-code-q4_1 | 5.5GB |
1b95ec1e6836 | 7b-code-q4_K_M | 5.3GB |
0eb5f6d5362a | 7b-code-q4_K_S | 5.0GB |
e866e2cde5d5 | 7b-code-q5_0 | 6.0GB |
104988c6ebfd | 7b-code-q5_1 | 6.5GB |
819c2d1e9b36 | 7b-code-q5_K_M | 6.1GB |
12594d83fcd9 | 7b-code-q5_K_S | 6.0GB |
d00cdbfa8157 | 7b-code-q6_K | 7.0GB |
9d29d6048003 | 7b-code-q8_0 | 9.1GB |
0c96700aaada | 7b-instruct | 5.0GB |
27f776c137a0 | 7b-instruct-fp16 | 17GB |
2936dc87cdb1 | 7b-instruct-q2_K | 3.5GB |
95fefb8f59d4 | 7b-instruct-q3_K_L | 4.7GB |
4816aadf859f | 7b-instruct-q3_K_M | 4.4GB |
16494f9aaad4 | 7b-instruct-q3_K_S | 4.0GB |
ca966f70c13f | 7b-instruct-q4_0 | 5.0GB |
596e25861a46 | 7b-instruct-q4_1 | 5.5GB |
4ef43ea9dac1 | 7b-instruct-q4_K_M | 5.3GB |
5f15be900227 | 7b-instruct-q4_K_S | 5.0GB |
f3e24c336347 | 7b-instruct-q5_0 | 6.0GB |
a5d197370268 | 7b-instruct-q5_1 | 6.5GB |
ea2f6eee4ed5 | 7b-instruct-q5_K_M | 6.1GB |
720341c38018 | 7b-instruct-q5_K_S | 6.0GB |
7aab9ab8f462 | 7b-instruct-q6_K | 7.0GB |
359218041ed4 | 7b-instruct-q8_0 | 9.1GB |
d0b6beaa41bd | 7b-instruct-v1.1-fp16 | 17GB |
ffadaea5308f | 7b-instruct-v1.1-q2_K | 3.5GB |
d2c94e66c966 | 7b-instruct-v1.1-q3_K_L | 4.7GB |
98df477b4dd7 | 7b-instruct-v1.1-q3_K_M | 4.4GB |
bf6229637a9a | 7b-instruct-v1.1-q3_K_S | 4.0GB |
0c96700aaada | 7b-instruct-v1.1-q4_0 | 5.0GB |
a6bd8bc93405 | 7b-instruct-v1.1-q4_1 | 5.5GB |
1216b3135c8b | 7b-instruct-v1.1-q4_K_M | 5.3GB |
61a7d2976eb8 | 7b-instruct-v1.1-q4_K_S | 5.0GB |
a4b9382b8bc5 | 7b-instruct-v1.1-q5_0 | 6.0GB |
c381b9ac5109 | 7b-instruct-v1.1-q5_1 | 6.5GB |
218da16d05a6 | 7b-instruct-v1.1-q5_K_M | 6.1GB |
121eb5f29436 | 7b-instruct-v1.1-q5_K_S | 6.0GB |
84dfb4c2b2ba | 7b-instruct-v1.1-q6_K | 7.0GB |
9cbd7648b75f | 7b-instruct-v1.1-q8_0 | 9.1GB |
0c96700aaada | 7b-v1.1 | 5.0GB |
926331004170 | code | 1.6GB |
0c96700aaada | instruct | 5.0GB |
地址: https://ollama.com/library/codegemma
🚀 代码生成新利器:CodeUp模型来袭!
ollama/codeup
摘要
CodeUp模型,一个由DeepSE基于Llama 2优化的代码生成利器,支持多语言编程,提高开发效率,是NLP领域的新宠。
内容
CodeUp模型,由DeepSE基于Meta的Llama 2模型优化而来,专注于代码生成,支持多种编程语言。🌐 它不仅能够提升代码质量,还能大幅提高开发效率。使用CodeUp,你可以通过API或CLI轻松集成,例如,通过一个简单的curl命令或终端指令即可启动模型。🔧 需要注意的是,13b参数的模型至少需要16GB的RAM。CodeUp提供了多种量化级别,用户可以根据需要选择合适的模型版本。🔍 作为Hugging Face社区的一员,CodeUp继承了其开放源代码和社区驱动开发的精神,是NLP领域中的一颗新星。
models:
id | model | size |
---|---|---|
54289661f7a9 | 13b | 7.4GB |
54289661f7a9 | 13b-llama2 | 7.4GB |
54289661f7a9 | 13b-llama2-chat | 7.4GB |
601feec09706 | 13b-llama2-chat-fp16 | 26GB |
771830732a3d | 13b-llama2-chat-q2_K | 5.4GB |
e9a4c68b3484 | 13b-llama2-chat-q3_K_L | 6.9GB |
9357098e7c6c | 13b-llama2-chat-q3_K_M | 6.3GB |
6986119d6001 | 13b-llama2-chat-q3_K_S | 5.7GB |
54289661f7a9 | 13b-llama2-chat-q4_0 | 7.4GB |
bb109d5814e0 | 13b-llama2-chat-q4_1 | 8.2GB |
fe7c559371e0 | 13b-llama2-chat-q4_K_M | 7.9GB |
d73ef3d9d616 | 13b-llama2-chat-q4_K_S | 7.4GB |
e33f1092521e | 13b-llama2-chat-q5_0 | 9.0GB |
37f387ed0970 | 13b-llama2-chat-q5_1 | 9.8GB |
ec5d06ff705d | 13b-llama2-chat-q5_K_M | 9.2GB |
c8780e1a9e94 | 13b-llama2-chat-q5_K_S | 9.0GB |
bd8f6908c033 | 13b-llama2-chat-q6_K | 11GB |
773d7e80460c | 13b-llama2-chat-q8_0 | 14GB |
地址: https://ollama.com/library/codeup
🚀 开源代码生成神器:CodeGeeX4-ALL-9B
ollama/codegeex4
摘要
CodeGeeX4-ALL-9B是一个强大的多语言代码生成模型,以其出色的性能和开源特性,成为开发者的新宠。
内容
CodeGeeX4-ALL-9B,由清华大学与DeepMind合作开发的开源多语言代码生成模型,基于GLM-4-9B架构,致力于提升代码生成能力。🌟 它在BigCodeBench和NaturalCodeBench等公共基准测试中表现出色,是少于10B参数中最强大的代码生成模型,平衡了推理速度和模型性能。
🔧 功能:CodeGeeX4支持多种编程语言,提供高质量的代码生成,具备强大的上下文理解能力和调试功能。
📈 热度:作为开源项目,CodeGeeX4在GitHub和Hugging Face上受到广泛关注,社区反馈积极,但也指出了处理复杂任务时的改进空间。
🌐 使用场景:适用于全球开发团队,特别是在需要多语言支持和代码生成效率的场景中。
models:
id | model | size |
---|---|---|
867b8e81d038 | 9b | 5.5GB |
c3cd6eb1916f | 9b-all-fp16 | 19GB |
08e724852cef | 9b-all-q2_K | 4.0GB |
5529f06b3407 | 9b-all-q3_K_L | 5.3GB |
5d8b91ce8944 | 9b-all-q3_K_M | 5.1GB |
286fdd19497a | 9b-all-q3_K_S | 4.6GB |
867b8e81d038 | 9b-all-q4_0 | 5.5GB |
5e5c2f0ff466 | 9b-all-q4_1 | 6.0GB |
c3a3c43c51c6 | 9b-all-q4_K_M | 6.3GB |
857f132f3bf8 | 9b-all-q4_K_S | 5.8GB |
3093b05b4012 | 9b-all-q5_0 | 6.6GB |
7986c322f712 | 9b-all-q5_1 | 7.1GB |
3ea52dda9b15 | 9b-all-q5_K_M | 7.1GB |
02d16c426451 | 9b-all-q5_K_S | 6.7GB |
eb3d51289271 | 9b-all-q6_K | 8.3GB |
9e5f03438298 | 9b-all-q8_0 | 10.0GB |
地址: https://ollama.com/library/codegeex4
🚀 开源代码生成神器:Codestral 22B模型来袭!
ollama/codestral
摘要
Codestral,Mistral AI的22B参数代码生成模型,支持80+编程语言,以其卓越的性能和开源特性,成为NLP领域的一大亮点。
内容
🌟 探索Mistral AI的Codestral,一个22B参数的代码生成模型,支持80+编程语言,包括Python、Java等。它不仅能完成编码功能,还能编写测试,甚至通过中间填充机制补全部分代码。🔥 Codestral以其32k的上下文窗口,在RepoBench长距离代码生成评估中超越竞争对手。📊 性能在文本生成、情感分析等领域表现突出,适合研究和生产环境。👩💻 Hugging Face社区不断更新,提升模型架构和训练技术。用户期待高性能、易集成的模型,Codestral以其开源灵活性满足这些需求。
models:
id | model | size |
---|---|---|
0898a8b286d5 | 22b | 13GB |
0e1127d332ef | 22b-v0.1-q2_K | 8.3GB |
40e96062aff7 | 22b-v0.1-q3_K_L | 12GB |
71655d0feff7 | 22b-v0.1-q3_K_M | 11GB |
435a805994fa | 22b-v0.1-q3_K_S | 9.6GB |
0898a8b286d5 | 22b-v0.1-q4_0 | 13GB |
112589019335 | 22b-v0.1-q4_1 | 14GB |
9a43e868fd2c | 22b-v0.1-q4_K_M | 13GB |
98d819ea95ec | 22b-v0.1-q4_K_S | 13GB |
05c0a78fd842 | 22b-v0.1-q5_0 | 15GB |
c71bfe359bcc | 22b-v0.1-q5_1 | 17GB |
2df1ccc62c6a | 22b-v0.1-q5_K_M | 16GB |
937f5c4a1a20 | 22b-v0.1-q5_K_S | 15GB |
e77ab7ec51f6 | 22b-v0.1-q6_K | 18GB |
8dde0029a91f | 22b-v0.1-q8_0 | 24GB |
0898a8b286d5 | v0.1 | 13GB |
地址: https://ollama.com/library/codestral
🚀 编程新伙伴:Phind CodeLlama 开源模型来袭!-phind-codellama
ollama/phind-codellama
摘要
Phind CodeLlama是一款强大的代码生成模型,以其高效和易用性在开发者中迅速走红。它不仅能够理解复杂的编程指令,还能生成高质量的代码,是提升编程效率的不二之选。
内容
Phind CodeLlama,一款基于CodeLlama 34B的代码生成模型,专为指令性用例进行了微调。🔥 它有两个版本:v1和v2。v1基于CodeLlama 34B和CodeLlama-Python 34B,而v2则在v1的基础上,额外训练了1.5B个高质量编程相关数据。👨💻 使用场景多样,无论是CLI还是API,都能轻松调用。例如,通过API生成C++的链表实现只需一行命令。📝 但请注意,34b模型至少需要32GB的RAM。💻 这款模型以其出色的性能和广泛的应用场景,受到了开发者社区的热烈反馈和高度评价。
models:
id | model | size |
---|---|---|
566e1b629c44 | 34b | 19GB |
d0ddded66c14 | 34b-fp16 | 67GB |
bec19e8c92a4 | 34b-python | 19GB |
ccb9074a8061 | 34b-python-fp16 | 67GB |
ec960206aec5 | 34b-python-q2_K | 14GB |
3f3a01944dd3 | 34b-python-q3_K_L | 18GB |
2fdf965466dc | 34b-python-q3_K_M | 16GB |
c3824169defc | 34b-python-q3_K_S | 15GB |
bec19e8c92a4 | 34b-python-q4_0 | 19GB |
1e799451044b | 34b-python-q4_1 | 21GB |
9db39448a8ce | 34b-python-q4_K_M | 20GB |
93eea7c40d0a | 34b-python-q4_K_S | 19GB |
cf6a273569bd | 34b-python-q5_0 | 23GB |
360441d0c9a7 | 34b-python-q5_1 | 25GB |
29b239cdf720 | 34b-python-q5_K_M | 24GB |
c6e28b3d23b5 | 34b-python-q5_K_S | 23GB |
947f17e83d4f | 34b-python-q6_K | 28GB |
29b33e343713 | 34b-python-q8_0 | 36GB |
28dc02b3983c | 34b-q2_K | 14GB |
900695f5a6da | 34b-q3_K_L | 18GB |
dab76ba3bf38 | 34b-q3_K_M | 16GB |
a6d5f0d91c7c | 34b-q3_K_S | 15GB |
b9d92fb9d11a | 34b-q4_0 | 19GB |
cb1cb323ea8d | 34b-q4_1 | 21GB |
7ba4e94413d0 | 34b-q4_K_M | 20GB |
d47ea0524c33 | 34b-q4_K_S | 19GB |
bd2544a8a868 | 34b-q5_0 | 23GB |
7a3d95330e66 | 34b-q5_1 | 25GB |
bcfdda4b8adc | 34b-q5_K_M | 24GB |
3160eec253d1 | 34b-q5_K_S | 23GB |
2a9dd324831c | 34b-q6_K | 28GB |
ffad854916fa | 34b-q8_0 | 36GB |
566e1b629c44 | 34b-v2 | 19GB |
f625b25bd3f0 | 34b-v2-fp16 | 67GB |
b8f09c086e17 | 34b-v2-q2_K | 14GB |
1cbabad8eaf0 | 34b-v2-q3_K_L | 18GB |
c7405152b04e | 34b-v2-q3_K_M | 16GB |
a199982685d4 | 34b-v2-q3_K_S | 15GB |
566e1b629c44 | 34b-v2-q4_0 | 19GB |
5501c45c64ca | 34b-v2-q4_1 | 21GB |
054af98f0f54 | 34b-v2-q4_K_M | 20GB |
0e53590617a2 | 34b-v2-q4_K_S | 19GB |
6f980beef3c6 | 34b-v2-q5_0 | 23GB |
dd20f2f822e3 | 34b-v2-q5_1 | 25GB |
eb9f2c7a1c66 | 34b-v2-q5_K_M | 24GB |
9869afbcdbc2 | 34b-v2-q5_K_S | 23GB |
c8e2f15ce087 | 34b-v2-q6_K | 28GB |
b6329a948210 | 34b-v2-q8_0 | 36GB |
地址: https://ollama.com/library/phind-codellama
最后:
欢迎关注 GitHubShare(githubshare.com),发现更多精彩的开源项目!
感谢大家的支持!你们的支持就是我更新的动力❤️