当前位置: 代码网 > 服务器>服务器>缓存 > 不会修改HuggingFace模型下载默认缓存路径?一篇教会你!

不会修改HuggingFace模型下载默认缓存路径?一篇教会你!

2024年07月31日 缓存 我要评论
草履虫都能看懂的HuggingFace的Transformers库模型缓存路径修改教程。

一、缓存路径和缓存文件结构

1.缓存路径

首先,你需要先了解transformers库对于它默认下载的缓存路径和文件结构,这样能让你更清楚的明白,transformers库的.cache系统以及如何更改缓存路径。

通过hugging face的transformers库自动下载模型,会先缓存在默认路径:
linux'~/.cache/huggingface/hub'
windowsc:\users\username\.cache\huggingface\hub
缓存的模型文件以哈希值形式储存,文件结构如下:

<cache_dir> # 缓存路径
├─ <models>    # 模型路径
├─ <datasets>  # 数据集路径
├─ <spaces>    # 空间路径

<cache_dir>通常由hf_homehf_hub_cache指定,具体看第二节

2.缓存文件结构

模型,数据集,空间,他们的存放格式如下 :
models/datasets/spaces--模型名称

<cache_dir> 
├─ models--julien-c--esperberto-small
├─ models--lysandrejik--arxiv-nlp
├─ models--bert-base-cased
├─ datasets--glue
├─ datasets--huggingface--datameasurementsfiles
├─ spaces--dalle-mini--dalle-mini

其中,不管是modelsdatasets还是spaces,他们子目录的文件结构也一样,如下:

<cache_dir>
├─ datasets--glue
│ 	├─ refs
│ 	├─ blobs
│ 	├─ snapshots
...

refs:是一个指针文件,使用hugging face的模型或数据集时,系统会通过检查refs文件夹中的信息,确定是否需要更新本地缓存的文件。
blobs:文件夹包含已下载的实际文件。每个文件的名称就是它们的哈希值。
snapshots:文件夹包含指向上述 blob 的符号链接。它本身由多个文件夹组成:每个已知版本一个!该文件夹中不具有实体属性,是连接到blobs中哈希值文件的连接。通过这种方式创建的框架,实现了文件共享的机制。如果在修订版本bbbbbb中获取的同一个文件具有相同的哈希值,那么该文件就不需要被重新下载。这意味着,即使在不同的修订版本中,只要文件内容没有变化,就可以复用之前下载的文件,避免了不必要的重复下载。
如下图所示,我展示了我blobs文件里的模型文件,他们都自动是以哈希值命名的,我猜是为了防止调用模型是出现重复的情况。
在这里插入图片描述

二、更改transformers库模型下载的缓存路径的两种方式

方式一:cache_dir 参数

可以通过from_pretrained函数中的 cache_dir 参数来指定,缺点,每次都需要手动指定,比较麻烦。
如:加载一个bert-base-uncased模型

from transformers import autotokenizer, automodelformaskedlm
tokenizer = autotokenizer.from_pretrained("google-bert/bert-base-uncased",cache_dir="路径")
model = automodelformaskedlm.from_pretrained("google-bert/bert-base-uncased",cache_dir="路径")

方式二:设置环境变量

先了解shell优先级顺序

  • shell 环境变量(默认): huggingface_hub_cachetransformers_cache
  • shell 环境变量: hf_home
  • shell 环境变量: xdg_cache_home + /huggingface
    实际使用中,transformer库首先检查huggingface_hub_cache是否被设置,如果没有,再按照上述的优先级顺序检查其他环境变量。下载模型我一般更改 hf_home

linux

通过vim编译器永久设置:

vim ~/.bashrc

在末尾行添加:

export hf_home="/path/to/you/dir"  # 替换为你想更改的目标路径

然后保存退出。
输入如下指令让它立即生效:

source ~/.bashrc

可通过如下指令查看是否设置成功,

env | grep hf_home

如果返回设置的路径,则成功。如图:alt

windows

方法一

打开“控制面板”(可以通过在开始菜单搜索“控制面板”来找到它)。
进入“系统和安全” > “系统” > “高级系统设置”
在出现的“系统属性”窗口中,点击“环境变量”按钮。
“用户变量”“系统变量”区域点击“新建”,然后在“变量名”中输入transformers_cache,在“变量值”中输入你想要的缓存目录路径

方法二

使用windows的命令提示符(cmd)
setx hf_home "c:\huggingface\hub"
需要重新打开命令提示符窗口才能生效。

三、清理缓存模型文件

python你想用的环境中安装:

pip install huggingface_hub["cli"]

然后运行:

huggingface-cli delete-cache #此命令也可以用来查看已经缓存的模型列表。

出现如下图:
缓存查看
比如我图上的:

model google/flan-t5-xxl (45.1g, used 3 weeks ago)
  ○ ae7c9136: main # modified 3 weeks ago

google/flan-t5-xxl是我下载的模型名称;
45.1g是模型大小;
used 3 weeks ago是最后使用时间;
○ ae7c9136: main 最后修改的版本。

最后选择你想要的操作:

  • 按键盘箭头键 <up>小键盘 ↑ 方向键<down>小键盘 ↓ 方向键 移动光标。
  • <space>(空格键)切换(选择/取消选择)项目,可以多选。
  • <enter>(回车) 确认您的选择。
  • 如果要取消操作并退出,按<ctrl+c>退出 tui。

四、保存模型文件

在第一节中,我们展示了transformers库模型下载后自动缓存的路径,但是这些模型都是以哈希值进行缓存的,我们人类看不懂,所以,如何转化为我们人类看得懂的文件格式呢?
很简单,我们调用transformers库的这个函数就行:
例如:
我首先从transformers库下载模型bigscience/t0_3b到缓存路径。

from transformers import autotokenizer, automodelforseq2seqlm
tokenizer = autotokenizer.from_pretrained("bigscience/t0_3b")
model = automodelforseq2seqlm.from_pretrained("bigscience/t0_3b")

然后将缓存的模型保存在到本,采用.save_pretrained方法就行:

tokenizer = autotokenizer.from_pretrained("./your/path/bigscience_t0")
model = automodel.from_pretrained("./your/path/bigscience_t0")

至此,结束。觉得这篇文章有用的小伙伴可以点赞收藏一下哦。(✧∇✧)

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com