huggingface加速下载模型

所需环境

  • python

huggingface-cli 用法

huggingface-cli的更多用法点击这里跳转官方

安装 huggingface_hub

PS C:\Windows\system32> pip install -U huggingface_hub

查看 huggingface-cli的用法

PS C:\Windows\system32> huggingface-cli --help

usage: huggingface-cli <command> [<args>]

positional arguments:
  {
   
   env,login,whoami,logout,repo,upload,download,lfs-enable-largefiles,lfs-multipart-upload,scan-cache,delete-cache,tag}
                        huggingface-cli command helpers
    env                 Print information about the environment.
    login               Log in using a token from huggingface.co/settings/tokens
    whoami              Find out which huggingface.co account you are logged in as.
    logout              Log out
    repo                {
   
   create} Commands to interact with your huggingface.co repos.
    upload              Upload a file or a folder to a repo on the Hub
    download            Download files from the Hub
    lfs-enable-largefiles
                        Configure your repository to enable upload of files > 5GB.
    scan-cache          Scan cache directory.
    delete-cache        Del
要从 Hugging Face 平台下载预训练模型,可以通过其 `Transformers` 库提供的 `from_pretrained` 方法轻松实现。以下是具体的操作步骤和代码示例: ### 使用 Transformers 库下载模型 1. 安装必要的库(如果尚未安装): ```bash pip install transformers ``` 2. 使用 Python 脚本下载模型。以下是一个使用 `AutoModel` 和 `AutoTokenizer` 下载 `bert-base-uncased` 模型的示例: ```python from transformers import AutoTokenizer, AutoModel # 指定模型名称 model_name = "bert-base-uncased" # 初始化 Tokenizer tokenizer = AutoTokenizer.from_pretrained(model_name) # 编码输入文本 text = "This is a test sentence." encoded_input = tokenizer.encode(text, return_tensors="pt") print("Encoded input:", encoded_input) # 下载并加载模型 model = AutoModel.from_pretrained(model_name) # 获取模型输出 output = model(encoded_input) print("Model output:", output) ``` ### 指定本地存储路径 如果你希望将模型保存到特定的本地路径,而不是默认的缓存目录,可以使用 `cache_dir` 参数来指定存储路径: ```python from transformers import AutoTokenizer, AutoModel model_name = "bert-base-uncased" cache_dir = "./models" # 自定义模型存储路径 # 指定 cache_dir 参数 tokenizer = AutoTokenizer.from_pretrained(model_name, cache_dir=cache_dir) model = AutoModel.from_pretrained(model_name, cache_dir=cache_dir) ``` 此方法会将模型文件下载并保存到 `./models` 目录下,避免默认存储在用户目录中。 ### 使用镜像源加速下载(适用于国内用户) 由于网络原因,国内用户可能无法顺畅访问 Hugging Face 的官方源。可以使用国内镜像源加速模型下载,例如官方推荐的镜像 `https://hf-mirror.com` 或其他国内镜像源。 使用方法如下: ```python from transformers import AutoTokenizer, AutoModel # 使用镜像源 model_name = "bert-base-uncased" mirror_url = "https://hf-mirror.com/models/{}/resolve/main/config.json".format(model_name) # 指定 `revision` 参数为镜像地址 tokenizer = AutoTokenizer.from_pretrained(model_name, revision="main", mirror="https://hf-mirror.com") model = AutoModel.from_pretrained(model_name, revision="main", mirror="https://hf-mirror.com") ``` 此外,也可以通过设置环境变量 `HF_ENDPOINT` 来全局使用镜像源: ```bash export HF_ENDPOINT=https://hf-mirror.com ``` ### 使用 CLI 命令行工具下载模型 Hugging Face 还提供了命令行工具 `huggingface-cli`,可以通过以下方式下载模型: 1. 安装 Hugging Face CLI 工具: ```bash pip install huggingface_hub ``` 2. 使用命令行下载模型: ```bash huggingface-cli download bert-base-uncased --repo-type model --revision main ``` 该命令会将 `bert-base-uncased` 模型下载到当前目录。 ### 模型缓存机制 Hugging Face 默认会将模型缓存到本地路径(如 `~/.cache/huggingface/transformers`)[^3],以避免重复下载。如果你希望强制重新下载模型,可以使用 `force_download=True` 参数: ```python from transformers import AutoModel model = AutoModel.from_pretrained("bert-base-uncased", force_download=True) ``` 这将忽略本地缓存并强制从远程服务器下载模型---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

那个小白猿

讨杯可乐

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值