开源

🌞 探索开源新星:Solar 10.7B参数语言模型

logo

ollama/solar

Local deployment of the model
logo


摘要

Solar,一个10.7亿参数的开源语言模型,以其小巧的体积和卓越的性能,在30B参数以下模型中独树一帜。它基于Llama 2架构,通过深度上扩展技术,整合Mistral 7B权重,展现出超越更大模型的性能。

项目图片

内容

开源领域迎来了一颗新星——Solar,一个拥有10.7亿参数的语言模型。🚀 它不仅体积小巧,还展现出了在30B参数以下模型中的顶尖性能。Solar基于Llama 2架构,采用深度上扩展技术,整合了Mistral 7B的权重,使其在H6基准测试中超越了高达30B参数的模型。🏆

Solar模型的多样性和灵活性,使其在多种场景下都能发挥出色的作用。无论是文本生成、对话系统还是内容创作,Solar都能提供强大的支持。📝 同时,它在社区中获得了极高的评价,用户期待它能轻松集成到现有系统中,并带来持续的性能改进。🔧

Hugging Face和Upstage AI的贡献让Solar成为可能,他们的开放源代码原则推动了AI技术的发展。🌐 通过这种方式,Hugging Face不仅提升了太阳能预测模型的性能,也为AI的道德发展树立了标杆。

Run the model locally

Id

059fdabbe6e6

4077d1b80ff9

ab2e179699c4

0a355ec26cd8

f0e8a58869f4

7391d81b0fb4

059fdabbe6e6

7b00d6f32cd3

6aff41700b63

7e7394f2f53e

0809603061fa

063c89d4e20b

ef538f3193f7

74dbfccc10d1

286aebb3baa2

8aed723d7979

45ac489b4ee5

53e823480c1f

a66cb84fd367

051ac692e9e9

34bae9e1b8a3

ce562b04760c

7b932789b739

510e1428088b

9e5604e44818

6afc326b4f95

80cc2ecfe373

b9172de1a93b

938a03a81530

05ad66dbd29b

f3fec49deb76

Model

10.7b

10.7b-instruct-v1-fp16

10.7b-instruct-v1-q2_K

10.7b-instruct-v1-q3_K_L

10.7b-instruct-v1-q3_K_M

10.7b-instruct-v1-q3_K_S

10.7b-instruct-v1-q4_0

10.7b-instruct-v1-q4_1

10.7b-instruct-v1-q4_K_M

10.7b-instruct-v1-q4_K_S

10.7b-instruct-v1-q5_0

10.7b-instruct-v1-q5_1

10.7b-instruct-v1-q5_K_M

10.7b-instruct-v1-q5_K_S

10.7b-instruct-v1-q6_K

10.7b-instruct-v1-q8_0

10.7b-text-v1-fp16

10.7b-text-v1-q2_K

10.7b-text-v1-q3_K_L

10.7b-text-v1-q3_K_M

10.7b-text-v1-q3_K_S

10.7b-text-v1-q4_0

10.7b-text-v1-q4_1

10.7b-text-v1-q4_K_M

10.7b-text-v1-q4_K_S

10.7b-text-v1-q5_0

10.7b-text-v1-q5_1

10.7b-text-v1-q5_K_M

10.7b-text-v1-q5_K_S

10.7b-text-v1-q6_K

10.7b-text-v1-q8_0

Size

6.1GB

21GB

4.5GB

5.7GB

5.2GB

4.7GB

6.1GB

6.7GB

6.5GB

6.1GB

7.4GB

8.1GB

7.6GB

7.4GB

8.8GB

11GB

21GB

4.5GB

5.7GB

5.2GB

4.7GB

6.1GB

6.7GB

6.5GB

6.1GB

7.4GB

8.1GB

7.6GB

7.4GB

8.8GB

11GB


关键词

自然语言处理 文本生成 对话系统

分类

人工智能 开源技术 效率提升
正文到此结束
本文目录