hugging-face-cli

使用 `hf` CLI 执行 Hugging Face Hub 操作。适用于用户需要下载模型/数据集/空间、上传文件至 Hub 仓库、创建仓库、管理本地缓存或在 HF 基础设施上运行计算任务的场景。涵盖身份验证、文件传输、仓库创建、缓存操作及云端计算功能。

作者

安装

热度:0

下载并解压到你的 skills 目录

复制命令,发送给 OpenClaw 自动安装:

下载并安装这个技能 https://openskills.cc/api/download?slug=sickn33-skills-hugging-face-cli&locale=zh&source=copy

Hugging Face CLI - HF 模型管理命令行工具

技能概述


Hugging Face CLI(hf 命令)提供直接访问 Hugging Face Hub 的终端能力,支持模型、数据集和 Spaces 的下载上传、仓库管理、本地缓存操作以及云端 GPU 计算任务。

适用场景

1. 模型与数据集获取


快速下载 Hugging Face Hub 上的预训练模型到本地目录,或使用缓存机制高效管理多个模型版本,特别适合需要离线部署或本地推理的开发场景。

2. 模型发布与协作


创建公开或私有仓库,上传训练好的模型权重和配置文件,管理版本标签,与团队协作分享 AI 成果,无需切换到 Web 界面即可完成完整发布流程。

3. 云端计算任务


直接从终端提交 GPU 计算作业,选择合适的 GPU 配置(如 A10G、H100),部署推理端点,无需编写额外的部署代码即可实现模型云端运行。

核心功能

模型传输管理


使用 hf download 下载完整仓库或指定文件到本地,支持按文件模式过滤、指定版本分支;使用 hf upload 上传单个文件或整个目录,可自定义提交信息或创建 Pull Request。

仓库与缓存操作


通过 hf repo create/delete/move 管理模型、数据集和 Spaces 仓库;使用 hf cache ls/prune/verify 查看和清理本地缓存,有效控制磁盘占用。

Hub 资源浏览与计算


hf models/datasets/spaces ls/info 命令浏览和搜索 Hub 资源;hf jobs run 提交云端 GPU 作业,hf endpoints deploy 管理推理端点的部署、扩缩容和生命周期。

常见问题

如何使用 hf CLI 下载 Hugging Face 模型?


运行 hf download <repo_id> 下载完整模型到缓存目录,或添加 --local-dir 参数指定输出路径。例如:hf download meta-llama/Llama-3.2-1B-Instruct --local-dir ./model

hf 命令上传文件需要认证吗?


是的,上传操作需要先完成认证。运行 hf auth login 进行交互式登录,或使用 --token $HF_TOKEN 传入环境变量。认证后可使用 hf upload <repo_id> <local_path> <target_path> 上传文件。

怎么清理 Hugging Face 本地缓存?


使用 hf cache ls 查看所有缓存内容及占用空间,运行 hf cache rm <repo_or_revision> 删除指定缓存,或执行 hf cache prune 清理所有未关联的版本释放磁盘空间。