Linux下使用Transformers,模型和数据集的位置
前提:
from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained()
model = AutoModelForCausalLM.from_pretrained()
使用 transformers 从 huggingface 下载模型和数据集时。
在 Linux 系统下,其保存的路径为:
/home/user/.cache/huggingface/hub/
其中的文件夹:blobs
存储大型二进制文件(如模型权重、数据集等)
文件以哈希值命名(如 sha256:a1b2c3…),确保内容唯一性
通过软链接被其他目录(如 snapshots)引用,避免重复存储
——————————————————————————————
文件夹:snapshots
保存可用的模型版本快照
每个子目录(如 snapshots/v1/)包含完整的模型文件结构
文件实际通过软链接指向 blobs 中的二进制内容,减少磁盘占用
直接调用 snapshots/v1/model.bin 即可加载指定版本模型,无需处理哈希值