🚀探索微软Phi-3.5-mini:轻量级AI新贵🌟-phi3.5
摘要
Phi-3.5-mini,微软的轻量级AI模型,以其卓越的性能和安全性,在资源受限的环境中展现出色。支持长文本处理,适用于多种应用场景,开源策略促进了技术的广泛采用和创新。

内容
微软新推出的Phi-3.5-mini模型,以其3.8亿参数量在AI领域掀起波澜🌊。这款轻量级模型,不仅在参数上精简,更在性能上展现出色,特别适合资源受限的环境,如移动设备和边缘计算系统。📱💻 Phi-3.5-mini支持128K的长文本处理,无论是长文档摘要、问答还是信息检索,都能轻松应对。🔍📚 经过严格的优化过程,包括监督式微调、近端策略优化和直接偏好优化,确保了指令的精确执行和强大的安全性。🛡️🔒 微软的开源策略,让这款模型在社区中广受欢迎,推动了AI技术的创新和应用。🌐🤝
Run the model locally
Id
61819fb370a3
4611ed13d496
45b8dc82a846
1a0c69ceca7c
0d7837063f04
a96deac0d01a
61819fb370a3
4cbfba8563ff
570961596984
593801e5a118
08d2a846d344
56d7624b988b
d8410edb4013
359cb1eb71b5
64777e5c6803
8b50e8e1e216
Model
3.8b
3.8b-mini-instruct-fp16
3.8b-mini-instruct-q2_K
3.8b-mini-instruct-q3_K_L
3.8b-mini-instruct-q3_K_M
3.8b-mini-instruct-q3_K_S
3.8b-mini-instruct-q4_0
3.8b-mini-instruct-q4_1
3.8b-mini-instruct-q4_K_M
3.8b-mini-instruct-q4_K_S
3.8b-mini-instruct-q5_0
3.8b-mini-instruct-q5_1
3.8b-mini-instruct-q5_K_M
3.8b-mini-instruct-q5_K_S
3.8b-mini-instruct-q6_K
3.8b-mini-instruct-q8_0
Size
2.2GB
7.6GB
1.4GB
2.1GB
2.0GB
1.7GB
2.2GB
2.4GB
2.4GB
2.2GB
2.6GB
2.9GB
2.8GB
2.6GB
3.1GB
4.1GB