🚀 开源大模型来袭:Wizard-Vicuna 13B 参数模型
摘要
Wizard-Vicuna,一个13B参数的开源大模型,以其在NLP任务中的卓越表现和社区支持,成为AI领域的一大亮点。

内容
🌟 探索开源大模型的奥秘!Wizard-Vicuna,一款基于Llama 2训练的13B参数模型,由MelodysDreamj精心打造。🤖 它以卓越的性能和广泛的应用场景,在AI界引起了广泛关注。
📝 功能强大:无论是文本生成、问答还是语言理解,它都能轻松应对。🔍 使用简便:CLI和API两种调用方式,让模型运行变得简单快捷。例如,通过CLI命令`ollama run wizard-vicuna`或API请求快速生成文本。💾 内存需求:至少16GB RAM,确保模型顺畅运行。
🌐 社区支持:Hugging Face的活跃社区为模型提供了强大的支持,超过100,000名开发者和研究者共同推动其发展。🔥 用户反馈:凭借易用性、详尽文档和社区互动,Wizard-Vicuna赢得了用户的高度评价。
Run the model locally
Id
a8fb469ef6bd
cc8594c08ee8
53b417f93f69
a3a73c2bdaf5
d02e7a6ee062
f402ed00ddb9
a8fb469ef6bd
46f8af4817cc
864c6cb42228
3af3cb8591e3
d962b9bd1ae4
c6e46ce79965
11bdc7bdd978
2e19ac68ead6
bfc227743375
4d8e29e58cdd
Model
13b
13b-fp16
13b-q2_K
13b-q3_K_L
13b-q3_K_M
13b-q3_K_S
13b-q4_0
13b-q4_1
13b-q4_K_M
13b-q4_K_S
13b-q5_0
13b-q5_1
13b-q5_K_M
13b-q5_K_S
13b-q6_K
13b-q8_0
Size
7.4GB
26GB
5.4GB
6.9GB
6.3GB
5.7GB
7.4GB
8.2GB
7.9GB
7.4GB
9.0GB
9.8GB
9.2GB
9.0GB
11GB
14GB