开源

【期刊合集】065 期 代码界的五大瑞士军刀!开源代码生成神器效率革命:谁是你的最佳拍档?

 每一个开源项目,都是改变世界的种子 

项目图片

 从2B到34B参数量级,5款顶级开源代码模型横评:CodeGemma智能补全、CodeUp多语言适配、CodeGeeX4性能平衡、Codestral长文本霸主、
Phind CodeLlama指令大师——开发者必备的秘密武器库,总有一款能让你写代码像搭积木!

🚀CodeGemma:编程界的新宠儿🌟

ollama/codegemma


项目图片

摘要

CodeGemma是一个强大的开源模型,以其在代码补全和生成任务中的卓越性能而闻名。它支持多种编程语言,并能显著提高开发效率。

内容

CodeGemma,一个由Hugging Face开发的开源语言模型,正以其在自然语言处理和代码生成任务中的卓越表现,吸引着AI界的广泛关注。👀

这款模型拥有多个变体,包括专为自然语言到代码对话和指令跟随而优化的"instruct"变体,专注于代码补全和生成的"code"变体,以及提供快速代码补全的2B变体。🔧

CodeGemma的优势在于其智能的代码补全和生成能力,能够减少错误和调试时间,支持多种编程语言,并能集成到开发环境中,提高工作效率。🚀

它支持中间填充(FIM)功能,这对于自动补全或编码助手工具非常有用。🛠️

CodeGemma在多个学术基准测试中表现出色,特别是在代码补全和生成任务上。📊

models:

id model size
926331004170 2b 1.6GB
0c96700aaada 7b 5.0GB
926331004170 2b-code 1.6GB
cb6daa72179a 2b-code-fp16 5.0GB
ac67535c1552 2b-code-q2_K 1.2GB
c6a3ccbac1d9 2b-code-q3_K_L 1.5GB
f0346e149522 2b-code-q3_K_M 1.4GB
6b80287fa068 2b-code-q3_K_S 1.3GB
d90011175ac4 2b-code-q4_0 1.6GB
801d0eb569e7 2b-code-q4_1 1.7GB
b593bb191655 2b-code-q4_K_M 1.6GB
259e48057973 2b-code-q4_K_S 1.6GB
becd697505ba 2b-code-q5_0 1.8GB
820b54de78f0 2b-code-q5_1 1.9GB
9617b59cd865 2b-code-q5_K_M 1.8GB
e9b5e9befa9e 2b-code-q5_K_S 1.8GB
fead9028c732 2b-code-q6_K 2.1GB
2be70d05c9ca 2b-code-q8_0 2.7GB
962c58660bab 2b-code-v1.1-fp16 5.0GB
75ba44f889ab 2b-code-v1.1-q2_K 1.2GB
6c9dbaeb7d96 2b-code-v1.1-q3_K_L 1.5GB
7d484bdf35ae 2b-code-v1.1-q3_K_M 1.4GB
d3a7d018d4c9 2b-code-v1.1-q3_K_S 1.3GB
926331004170 2b-code-v1.1-q4_0 1.6GB
2128822ebc78 2b-code-v1.1-q4_1 1.7GB
718e1de01c13 2b-code-v1.1-q4_K_M 1.6GB
a8166a21676a 2b-code-v1.1-q4_K_S 1.6GB
2eb16b352c75 2b-code-v1.1-q5_0 1.8GB
2b872b7f7fcf 2b-code-v1.1-q5_1 1.9GB
421f855bcae9 2b-code-v1.1-q5_K_M 1.8GB
ba1202a14d4e 2b-code-v1.1-q5_K_S 1.8GB
d06cfbc95341 2b-code-v1.1-q6_K 2.1GB
e7a5cfdf2f8b 2b-code-v1.1-q8_0 2.7GB
926331004170 2b-v1.1 1.6GB
aee9a63c13b9 7b-code 5.0GB
0e5867ab03b0 7b-code-fp16 17GB
9a5f3c6225e2 7b-code-q2_K 3.5GB
421c03d31cc9 7b-code-q3_K_L 4.7GB
b000753cb7f5 7b-code-q3_K_M 4.4GB
59358d79fbb3 7b-code-q3_K_S 4.0GB
aee9a63c13b9 7b-code-q4_0 5.0GB
9067dd660ab0 7b-code-q4_1 5.5GB
1b95ec1e6836 7b-code-q4_K_M 5.3GB
0eb5f6d5362a 7b-code-q4_K_S 5.0GB
e866e2cde5d5 7b-code-q5_0 6.0GB
104988c6ebfd 7b-code-q5_1 6.5GB
819c2d1e9b36 7b-code-q5_K_M 6.1GB
12594d83fcd9 7b-code-q5_K_S 6.0GB
d00cdbfa8157 7b-code-q6_K 7.0GB
9d29d6048003 7b-code-q8_0 9.1GB
0c96700aaada 7b-instruct 5.0GB
27f776c137a0 7b-instruct-fp16 17GB
2936dc87cdb1 7b-instruct-q2_K 3.5GB
95fefb8f59d4 7b-instruct-q3_K_L 4.7GB
4816aadf859f 7b-instruct-q3_K_M 4.4GB
16494f9aaad4 7b-instruct-q3_K_S 4.0GB
ca966f70c13f 7b-instruct-q4_0 5.0GB
596e25861a46 7b-instruct-q4_1 5.5GB
4ef43ea9dac1 7b-instruct-q4_K_M 5.3GB
5f15be900227 7b-instruct-q4_K_S 5.0GB
f3e24c336347 7b-instruct-q5_0 6.0GB
a5d197370268 7b-instruct-q5_1 6.5GB
ea2f6eee4ed5 7b-instruct-q5_K_M 6.1GB
720341c38018 7b-instruct-q5_K_S 6.0GB
7aab9ab8f462 7b-instruct-q6_K 7.0GB
359218041ed4 7b-instruct-q8_0 9.1GB
d0b6beaa41bd 7b-instruct-v1.1-fp16 17GB
ffadaea5308f 7b-instruct-v1.1-q2_K 3.5GB
d2c94e66c966 7b-instruct-v1.1-q3_K_L 4.7GB
98df477b4dd7 7b-instruct-v1.1-q3_K_M 4.4GB
bf6229637a9a 7b-instruct-v1.1-q3_K_S 4.0GB
0c96700aaada 7b-instruct-v1.1-q4_0 5.0GB
a6bd8bc93405 7b-instruct-v1.1-q4_1 5.5GB
1216b3135c8b 7b-instruct-v1.1-q4_K_M 5.3GB
61a7d2976eb8 7b-instruct-v1.1-q4_K_S 5.0GB
a4b9382b8bc5 7b-instruct-v1.1-q5_0 6.0GB
c381b9ac5109 7b-instruct-v1.1-q5_1 6.5GB
218da16d05a6 7b-instruct-v1.1-q5_K_M 6.1GB
121eb5f29436 7b-instruct-v1.1-q5_K_S 6.0GB
84dfb4c2b2ba 7b-instruct-v1.1-q6_K 7.0GB
9cbd7648b75f 7b-instruct-v1.1-q8_0 9.1GB
0c96700aaada 7b-v1.1 5.0GB
926331004170 code 1.6GB
0c96700aaada instruct 5.0GB

地址: https://ollama.com/library/codegemma

🚀 代码生成新利器:CodeUp模型来袭!

ollama/codeup


项目图片

摘要

CodeUp模型,一个由DeepSE基于Llama 2优化的代码生成利器,支持多语言编程,提高开发效率,是NLP领域的新宠。

内容

CodeUp模型,由DeepSE基于Meta的Llama 2模型优化而来,专注于代码生成,支持多种编程语言。🌐 它不仅能够提升代码质量,还能大幅提高开发效率。使用CodeUp,你可以通过API或CLI轻松集成,例如,通过一个简单的curl命令或终端指令即可启动模型。🔧 需要注意的是,13b参数的模型至少需要16GB的RAM。CodeUp提供了多种量化级别,用户可以根据需要选择合适的模型版本。🔍 作为Hugging Face社区的一员,CodeUp继承了其开放源代码和社区驱动开发的精神,是NLP领域中的一颗新星。

models:

id model size
54289661f7a9 13b 7.4GB
54289661f7a9 13b-llama2 7.4GB
54289661f7a9 13b-llama2-chat 7.4GB
601feec09706 13b-llama2-chat-fp16 26GB
771830732a3d 13b-llama2-chat-q2_K 5.4GB
e9a4c68b3484 13b-llama2-chat-q3_K_L 6.9GB
9357098e7c6c 13b-llama2-chat-q3_K_M 6.3GB
6986119d6001 13b-llama2-chat-q3_K_S 5.7GB
54289661f7a9 13b-llama2-chat-q4_0 7.4GB
bb109d5814e0 13b-llama2-chat-q4_1 8.2GB
fe7c559371e0 13b-llama2-chat-q4_K_M 7.9GB
d73ef3d9d616 13b-llama2-chat-q4_K_S 7.4GB
e33f1092521e 13b-llama2-chat-q5_0 9.0GB
37f387ed0970 13b-llama2-chat-q5_1 9.8GB
ec5d06ff705d 13b-llama2-chat-q5_K_M 9.2GB
c8780e1a9e94 13b-llama2-chat-q5_K_S 9.0GB
bd8f6908c033 13b-llama2-chat-q6_K 11GB
773d7e80460c 13b-llama2-chat-q8_0 14GB

地址: https://ollama.com/library/codeup

🚀 开源代码生成神器:CodeGeeX4-ALL-9B

ollama/codegeex4


项目图片

摘要

CodeGeeX4-ALL-9B是一个强大的多语言代码生成模型,以其出色的性能和开源特性,成为开发者的新宠。

内容

CodeGeeX4-ALL-9B,由清华大学与DeepMind合作开发的开源多语言代码生成模型,基于GLM-4-9B架构,致力于提升代码生成能力。🌟 它在BigCodeBench和NaturalCodeBench等公共基准测试中表现出色,是少于10B参数中最强大的代码生成模型,平衡了推理速度和模型性能。

🔧 功能:CodeGeeX4支持多种编程语言,提供高质量的代码生成,具备强大的上下文理解能力和调试功能。

📈 热度:作为开源项目,CodeGeeX4在GitHub和Hugging Face上受到广泛关注,社区反馈积极,但也指出了处理复杂任务时的改进空间。

🌐 使用场景:适用于全球开发团队,特别是在需要多语言支持和代码生成效率的场景中。

models:

id model size
867b8e81d038 9b 5.5GB
c3cd6eb1916f 9b-all-fp16 19GB
08e724852cef 9b-all-q2_K 4.0GB
5529f06b3407 9b-all-q3_K_L 5.3GB
5d8b91ce8944 9b-all-q3_K_M 5.1GB
286fdd19497a 9b-all-q3_K_S 4.6GB
867b8e81d038 9b-all-q4_0 5.5GB
5e5c2f0ff466 9b-all-q4_1 6.0GB
c3a3c43c51c6 9b-all-q4_K_M 6.3GB
857f132f3bf8 9b-all-q4_K_S 5.8GB
3093b05b4012 9b-all-q5_0 6.6GB
7986c322f712 9b-all-q5_1 7.1GB
3ea52dda9b15 9b-all-q5_K_M 7.1GB
02d16c426451 9b-all-q5_K_S 6.7GB
eb3d51289271 9b-all-q6_K 8.3GB
9e5f03438298 9b-all-q8_0 10.0GB

地址: https://ollama.com/library/codegeex4

🚀 开源代码生成神器:Codestral 22B模型来袭!

ollama/codestral


项目图片

摘要

Codestral,Mistral AI的22B参数代码生成模型,支持80+编程语言,以其卓越的性能和开源特性,成为NLP领域的一大亮点。

内容

🌟 探索Mistral AI的Codestral,一个22B参数的代码生成模型,支持80+编程语言,包括Python、Java等。它不仅能完成编码功能,还能编写测试,甚至通过中间填充机制补全部分代码。🔥 Codestral以其32k的上下文窗口,在RepoBench长距离代码生成评估中超越竞争对手。📊 性能在文本生成、情感分析等领域表现突出,适合研究和生产环境。👩‍💻 Hugging Face社区不断更新,提升模型架构和训练技术。用户期待高性能、易集成的模型,Codestral以其开源灵活性满足这些需求。

models:

id model size
0898a8b286d5 22b 13GB
0e1127d332ef 22b-v0.1-q2_K 8.3GB
40e96062aff7 22b-v0.1-q3_K_L 12GB
71655d0feff7 22b-v0.1-q3_K_M 11GB
435a805994fa 22b-v0.1-q3_K_S 9.6GB
0898a8b286d5 22b-v0.1-q4_0 13GB
112589019335 22b-v0.1-q4_1 14GB
9a43e868fd2c 22b-v0.1-q4_K_M 13GB
98d819ea95ec 22b-v0.1-q4_K_S 13GB
05c0a78fd842 22b-v0.1-q5_0 15GB
c71bfe359bcc 22b-v0.1-q5_1 17GB
2df1ccc62c6a 22b-v0.1-q5_K_M 16GB
937f5c4a1a20 22b-v0.1-q5_K_S 15GB
e77ab7ec51f6 22b-v0.1-q6_K 18GB
8dde0029a91f 22b-v0.1-q8_0 24GB
0898a8b286d5 v0.1 13GB

地址: https://ollama.com/library/codestral

🚀 编程新伙伴:Phind CodeLlama 开源模型来袭!-phind-codellama

ollama/phind-codellama


项目图片

摘要

Phind CodeLlama是一款强大的代码生成模型,以其高效和易用性在开发者中迅速走红。它不仅能够理解复杂的编程指令,还能生成高质量的代码,是提升编程效率的不二之选。

内容

Phind CodeLlama,一款基于CodeLlama 34B的代码生成模型,专为指令性用例进行了微调。🔥 它有两个版本:v1和v2。v1基于CodeLlama 34B和CodeLlama-Python 34B,而v2则在v1的基础上,额外训练了1.5B个高质量编程相关数据。👨‍💻 使用场景多样,无论是CLI还是API,都能轻松调用。例如,通过API生成C++的链表实现只需一行命令。📝 但请注意,34b模型至少需要32GB的RAM。💻 这款模型以其出色的性能和广泛的应用场景,受到了开发者社区的热烈反馈和高度评价。

models:

id model size
566e1b629c44 34b 19GB
d0ddded66c14 34b-fp16 67GB
bec19e8c92a4 34b-python 19GB
ccb9074a8061 34b-python-fp16 67GB
ec960206aec5 34b-python-q2_K 14GB
3f3a01944dd3 34b-python-q3_K_L 18GB
2fdf965466dc 34b-python-q3_K_M 16GB
c3824169defc 34b-python-q3_K_S 15GB
bec19e8c92a4 34b-python-q4_0 19GB
1e799451044b 34b-python-q4_1 21GB
9db39448a8ce 34b-python-q4_K_M 20GB
93eea7c40d0a 34b-python-q4_K_S 19GB
cf6a273569bd 34b-python-q5_0 23GB
360441d0c9a7 34b-python-q5_1 25GB
29b239cdf720 34b-python-q5_K_M 24GB
c6e28b3d23b5 34b-python-q5_K_S 23GB
947f17e83d4f 34b-python-q6_K 28GB
29b33e343713 34b-python-q8_0 36GB
28dc02b3983c 34b-q2_K 14GB
900695f5a6da 34b-q3_K_L 18GB
dab76ba3bf38 34b-q3_K_M 16GB
a6d5f0d91c7c 34b-q3_K_S 15GB
b9d92fb9d11a 34b-q4_0 19GB
cb1cb323ea8d 34b-q4_1 21GB
7ba4e94413d0 34b-q4_K_M 20GB
d47ea0524c33 34b-q4_K_S 19GB
bd2544a8a868 34b-q5_0 23GB
7a3d95330e66 34b-q5_1 25GB
bcfdda4b8adc 34b-q5_K_M 24GB
3160eec253d1 34b-q5_K_S 23GB
2a9dd324831c 34b-q6_K 28GB
ffad854916fa 34b-q8_0 36GB
566e1b629c44 34b-v2 19GB
f625b25bd3f0 34b-v2-fp16 67GB
b8f09c086e17 34b-v2-q2_K 14GB
1cbabad8eaf0 34b-v2-q3_K_L 18GB
c7405152b04e 34b-v2-q3_K_M 16GB
a199982685d4 34b-v2-q3_K_S 15GB
566e1b629c44 34b-v2-q4_0 19GB
5501c45c64ca 34b-v2-q4_1 21GB
054af98f0f54 34b-v2-q4_K_M 20GB
0e53590617a2 34b-v2-q4_K_S 19GB
6f980beef3c6 34b-v2-q5_0 23GB
dd20f2f822e3 34b-v2-q5_1 25GB
eb9f2c7a1c66 34b-v2-q5_K_M 24GB
9869afbcdbc2 34b-v2-q5_K_S 23GB
c8e2f15ce087 34b-v2-q6_K 28GB
b6329a948210 34b-v2-q8_0 36GB

地址: https://ollama.com/library/phind-codellama

最后:

欢迎关注 GitHubShare(githubshare.com),发现更多精彩的开源项目!
感谢大家的支持!你们的支持就是我更新的动力❤️

正文到此结束
本文目录