Unsloth联手Hugging Face Jobs免费提供模型微调额度,实现2倍加速并显著降低显存占用
•19 阅读•4分钟•开源
Hugging FaceUnslothLFM2.5-1.2B-Instruct
•19 阅读•4分钟•开源

背景与意义
随着大模型算力成本居高不下,小模型的高效微调逐渐成为企业和个人开发者的关注焦点。Unsloth 作为开源的训练加速库,宣称在同等硬件上可实现约 2 倍训练速度 并 降低约 60% 显存占用。本次与 Hugging Face Jobs 的合作,除了提供技术方案,还免费发放一月 Pro 订阅和算力券,让用户能够在云端 GPU 上低成本完成模型微调。
免费算力券获取方式
- 加入 Unsloth Jobs Explorers 组织(在 Hugging Face 社区页面点击申请)
- 完成账户绑定后即可领取 一次性免费算力券,可用于 HF Jobs 的任意 A10G‑small 实例,最长 4 小时运行时长
- 同时获得一月的 Pro 订阅,解锁更高并发作业配额
“我们希望通过低门槛的算力支持,让更多开发者体验到大模型微调的实际价值。” — Unsloth 官方声明
关键技术亮点
- FastLanguageModel:Unsloth 实现的 4‑bit 量化加载,模型参数占用大幅下降,LFM2.5-1.2B‑Instruct 在 <1GB 显存即可运行
- LoRA 微调:仅需 16‑bit 权重更新,显存占用进一步压缩
- GPU 兼容:支持 T4、A10G 等主流云端 GPU,兼容 Hugging Face Jobs 的 UV 脚本 运行环境
操作流程(示例)
- 安装 HF CLI
curl -LsSf https://hf.co/cli/install.sh | bash - 提交作业(以 LFM2.5‑1.2B‑Instruct 为例)
hf jobs uv run https://huggingface.co/datasets/unsloth/jobs/resolve/main/sft-lfm2.5.py --flavor a10g-small --secrets HF_TOKEN --timeout 4h --dataset mlabonne/FineTome-100k --num-epochs 1 --eval-split 0.2 --output-repo your-username/lfm-finetuned - 监控与推送:作业完成后,系统自动将模型推送至用户的 Hugging Face Hub,提供 Trackio 监控链接查看训练曲线。
成本与性能对比
| 模型规模 | 推荐 GPU | 近似成本/小时 |
|---|---|---|
| <1B 参数 | t4‑small | $0.40 |
| 1‑3B 参数 | t4‑medium | $0.60 |
| 3‑7B 参数 | a10g‑small | $1.00 |
| 7‑13B 参数 | a10g‑large | $3.00 |
使用 Unsloth 后,同等训练任务的 时长可缩短至原来的 50%,显存需求下降约 60%,从而在相同预算下完成更大规模实验。
行业影响与展望
- 降低研发门槛:免费算力券让中小团队和个人开发者可以在不投入大额预算的前提下尝试模型微调,促进创新生态。
- 加速开源模型落地:结合 Hugging Face Hub 的一键推送,微调成果可快速共享,推动 LFM2.5‑1.2B‑Instruct 等开源模型在垂直场景的落地。
- 生态协同效应:Unsloth 的插件化设计支持 Claude Code、Codex 等多种编码代理,未来有望在 AI 编程助手和自动化研发流水线中发挥更大作用。
小结
Unsloth 与 Hugging Face Jobs 的免费算力合作,为 AI 微调提供了 低成本、高效率 的全链路解决方案。通过 4‑bit 量化、LoRA 微调以及云端 UV 脚本的无缝衔接,开发者只需几美元即可在云端完成小模型的快速迭代,这将进一步推动开源大模型的商业化落地与生态繁荣。
本文是对第三方新闻源的主观解读。消息可能出现过时、不准确、歧义或错误的地方,仅供参考使用。点击此处查看消息源。