huggingface-cli下载模型
时间: 2025-02-12 18:16:45 浏览: 117
### 如何使用 `huggingface-cli` 下载预训练模型
为了下载 Hugging Face 上托管的预训练模型,可以利用命令行工具 `huggingface-cli`。安装此工具之前,确保 Python 和 pip 已经被正确设置于环境中。
#### 安装 huggingface-cli
对于尚未安装该CLI的情况,可以通过pip来完成安装:
```bash
pip install huggingface_hub
```
这条指令会自动配置好环境以便后续操作[^1]。
#### 登录账号
首次执行下载或其他涉及私人资源的操作前,需通过命令行登录个人账户:
```bash
huggingface-cli login
```
这一步骤将引导用户输入访问令牌,从而验证身份并获取相应权限[^2]。
#### 执行下载
一旦准备就绪,便能轻松拉取所需模型至本地文件夹内。例如要下载bert-base-uncased模型,则可运行如下命令:
```bash
huggingface-cli download bert-base-uncased
```
上述命令不仅限于此特定模型;只需替换参数为其他合法的目标名称即可实现不同模型的下载需求[^3]。
相关问题
huggingface-cli怎么下载模型
### 使用 `huggingface-cli` 下载模型
为了使用 `huggingface-cli` 工具下载特定的预训练模型,可以按照如下方法操作:
安装并更新 Hugging Face 的命令行工具是必要的前置条件。通过 Python 的包管理器 pip 安装最新版本的 huggingface_hub 库来完成这一步骤[^2]。
```bash
pip install -U huggingface_hub
```
接着,在目标文件夹内执行下载命令。这里展示的是如何下载名为 `OpenGVLab/InternVL-Chat-V1-2` 和 `OpenGVLab/InternVL-Chat-V1-2-Plus` 的两个不同版本的 InternVL 聊天模型到本地指定目录中。
对于 `OpenGVLab/InternVL-Chat-V1-2` 版本:
```bash
cd pretrained/
huggingface-cli download --resume-download --local-dir-use-symlinks False OpenGVLab/InternVL-Chat-V1-2 --local-dir InternVL-Chat-V1-2
```
而对于 `OpenGVLab/InternVL-Chat-V1-2-Plus` 版本,则有类似的指令:
```bash
huggingface-cli download --resume-download --local-dir-use-symlinks False OpenGVLab/InternVL-Chat-V1-2-Plus --local-dir InternVL-Chat-V1-2-Plus
```
上述命令中的选项解释如下:
- `--resume-download`: 支持断点续传功能;
- `--local-dir-use-symlinks False`: 防止创建符号链接,默认情况下会尝试这样做以节省空间;
- `--local-dir <DIR>`: 指定保存位置。
这些命令允许用户轻松获取所需资源,并准备好用于后续处理或部署环境之中。
huggingface-cli下载指定模型
要使用 `huggingface-cli` 下载特定模型,可以通过命令行工具 `huggingface-cli` 提供的 `download` 命令来完成。该命令允许用户从 Hugging Face Model Hub 下载指定的模型文件和相关配置。
### 使用 huggingface-cli 下载特定模型
1. **安装 huggingface_hub 库**
如果尚未安装 Hugging Face 的 CLI 工具,可以先通过以下命令安装:
```bash
pip install huggingface_hub
```
2. **下载特定模型**
使用 `huggingface-cli download` 命令并指定模型名称和目标目录来下载模型。例如,要下载名为 `bert-base-uncased` 的模型,可以运行以下命令:
```bash
huggingface-cli download bert-base-uncased --cache-dir ./model_cache
```
其中:
- `bert-base-uncased` 是模型在 Hugging Face 上的标识符。
- `--cache-dir` 指定模型下载的目标路径。
3. **选择性下载**
如果只需要下载特定文件(如仅下载 `pytorch_model.bin` 或 `config.json`),可以在命令后加上 `--include` 参数指定文件模式:
```bash
huggingface-cli download bert-base-uncased --include "pytorch_model.bin" --cache-dir ./model_cache
```
4. **认证与私有模型下载**
如果需要下载私有模型或受访问控制保护的模型,可以使用 `huggingface-cli login` 命令进行身份验证:
```bash
huggingface-cli login
```
登录后,即可访问具有权限的私有模型并进行下载。
5. **查看帮助信息**
可以随时使用以下命令查看完整的命令参数说明:
```bash
huggingface-cli download --help
```
### 注意事项
- 确保网络连接正常,并且拥有对目标模型的访问权限。
- 对于较大的模型,下载过程可能耗时较长,建议在稳定的网络环境中执行。
- 如果模型依赖特定版本的 Transformers 库,请确保本地环境满足这些依赖条件。
阅读全文
相关推荐
















