🐬 海豚领航:MegaDolphin-120b 开源模型全解析
摘要
MegaDolphin-120b模型,以其开源和高效处理NLP任务的能力,成为Hugging Face的亮点。它不仅性能卓越,还通过社区贡献不断进步,满足用户对高效NLP解决方案的期待。

内容
探索AI的海洋,MegaDolphin-120b模型🐬以其卓越的性能和开源精神,成为NLP领域的新星。这款模型,灵感源自Goliath和Venus,采用独特的自我交织技术,展现出强大的多模态处理能力。🌟
MegaDolphin-120b在Hugging Face的支持下,以其在NLP任务中的高效表现,赢得了开发者的广泛赞誉。🏆 它不仅在Open LLM Leaderboard上表现突出,还通过社区的持续贡献,不断进化。🚀 用户期待它在聊天机器人、高级语言生成系统等领域大放异彩。🌐
MegaDolphin-120b的开源特性,让用户能够参与模型的发展,提出改进建议,共同推动技术进步。🤝 这款模型,无疑是提高工作效率、探索AI可能的利器。
Run the model locally
Id
8fa55398527b
8fa55398527b
cf54e31cfdd8
e1b1887eddd5
a27d38e0cacc
65fd60e22eea
51cfd8967e4b
8fa55398527b
9868ed4c72c3
b92822f58f1d
62050e584c58
83e48c89c1be
9b53d1dc0471
559d2beee57b
253565c3099b
dcaaf2d5d42c
8f2b4b5ff548
8fa55398527b
Model
120b
120b-v2.2
120b-v2.2-fp16
120b-v2.2-q2_K
120b-v2.2-q3_K_L
120b-v2.2-q3_K_M
120b-v2.2-q3_K_S
120b-v2.2-q4_0
120b-v2.2-q4_1
120b-v2.2-q4_K_M
120b-v2.2-q4_K_S
120b-v2.2-q5_0
120b-v2.2-q5_1
120b-v2.2-q5_K_M
120b-v2.2-q5_K_S
120b-v2.2-q6_K
120b-v2.2-q8_0
v2.2
Size
68GB
68GB
241GB
51GB
63GB
58GB
52GB
68GB
75GB
72GB
68GB
83GB
90GB
85GB
83GB
99GB
128GB
68GB