huggingface-cli download
时间: 2025-03-28 16:08:31 浏览: 82
### 使用 Hugging Face CLI 下载模型或资源
Hugging Face 提供了一个命令行工具 `huggingface-cli`,用于简化从其模型库中下载预训练模型和其他资源的过程。以下是关于如何使用该工具的相关说明。
#### 安装 huggingface-cli 工具
为了能够正常使用此功能,首先需要安装 `transformers` 库以及相关依赖项。可以通过以下命令完成安装:
```bash
pip install transformers
```
如果希望更方便地管理环境并确保兼容性,可以考虑基于 Docker 镜像创建开发环境[^2]。例如,可以选择类似于 jupyterlab-pytorch 的镜像来构建基础运行时环境。
#### 登录到 Hugging Face Hub
在执行任何操作之前,可能需要登录至个人账户以访问私有仓库或者增加速率限制配额。通过下面这条指令实现身份验证过程:
```bash
huggingface-cli login
```
这一步会提示输入 API Token,可以从 https://huggingface.co/settings/tokens 页面获取相应令牌值。
#### 下载指定模型或资源文件
一旦完成了必要的准备工作之后,则可以直接调用 download 子命令去拉取目标数据集/权重参数等资料。基本语法如下所示:
```bash
huggingface-cli download <repository-id> [<filename>...]
```
其中 `<repository-id>` 表示具体项目的唯一标识符;而可选部分 `[<filename>]` 则允许用户仅提取某些特定类型的文档而非整个项目包体[^1]。
举个例子来说,如果我们想要获得名为 "distilbert-base-cased" 的 BERT 变种版本编码器结构及其配套字典表单的话,就可以这样写:
```bash
huggingface-cli download distilbert-base-cased config.json tokenizer.json pytorch_model.bin
```
另外值得注意的是,在实际应用场景当中还存在其他一些常用选项可供进一步定制行为模式,比如设置缓存路径、启用多线程传输机制等等特性支持。
---
阅读全文
相关推荐


















