hugging-face-cli
使用 `hf` CLI 执行 Hugging Face Hub 操作。适用于用户需要下载模型/数据集/空间、上传文件至 Hub 仓库、创建仓库、管理本地缓存或在 HF 基础设施上运行计算任务的场景。涵盖身份验证、文件传输、仓库创建、缓存操作及云端计算功能。
作者
分类
开发工具安装
热度:0
下载并解压到你的 skills 目录
复制命令,发送给 OpenClaw 自动安装:
下载并安装这个技能 https://openskills.cc/api/download?slug=sickn33-skills-hugging-face-cli&locale=zh&source=copy
Hugging Face CLI - HF 模型管理命令行工具
技能概述
Hugging Face CLI(hf 命令)提供直接访问 Hugging Face Hub 的终端能力,支持模型、数据集和 Spaces 的下载上传、仓库管理、本地缓存操作以及云端 GPU 计算任务。
适用场景
1. 模型与数据集获取
快速下载 Hugging Face Hub 上的预训练模型到本地目录,或使用缓存机制高效管理多个模型版本,特别适合需要离线部署或本地推理的开发场景。
2. 模型发布与协作
创建公开或私有仓库,上传训练好的模型权重和配置文件,管理版本标签,与团队协作分享 AI 成果,无需切换到 Web 界面即可完成完整发布流程。
3. 云端计算任务
直接从终端提交 GPU 计算作业,选择合适的 GPU 配置(如 A10G、H100),部署推理端点,无需编写额外的部署代码即可实现模型云端运行。
核心功能
模型传输管理
使用
hf download 下载完整仓库或指定文件到本地,支持按文件模式过滤、指定版本分支;使用 hf upload 上传单个文件或整个目录,可自定义提交信息或创建 Pull Request。仓库与缓存操作
通过
hf repo create/delete/move 管理模型、数据集和 Spaces 仓库;使用 hf cache ls/prune/verify 查看和清理本地缓存,有效控制磁盘占用。Hub 资源浏览与计算
hf models/datasets/spaces ls/info 命令浏览和搜索 Hub 资源;hf jobs run 提交云端 GPU 作业,hf endpoints deploy 管理推理端点的部署、扩缩容和生命周期。常见问题
如何使用 hf CLI 下载 Hugging Face 模型?
运行
hf download <repo_id> 下载完整模型到缓存目录,或添加 --local-dir 参数指定输出路径。例如:hf download meta-llama/Llama-3.2-1B-Instruct --local-dir ./model。hf 命令上传文件需要认证吗?
是的,上传操作需要先完成认证。运行
hf auth login 进行交互式登录,或使用 --token $HF_TOKEN 传入环境变量。认证后可使用 hf upload <repo_id> <local_path> <target_path> 上传文件。怎么清理 Hugging Face 本地缓存?
使用
hf cache ls 查看所有缓存内容及占用空间,运行 hf cache rm <repo_or_revision> 删除指定缓存,或执行 hf cache prune 清理所有未关联的版本释放磁盘空间。