当前位置: 代码网 > it编程>前端脚本>Python > PyTorch中loading fbgemm.dll异常的解决办法

PyTorch中loading fbgemm.dll异常的解决办法

2024年08月16日 Python 我要评论
一、安装必备1. window学习或开发阶段,我们通常在window环境下进行,因此需满足以下条件:windows 7 and greater;windows 10 or greater recomm

一、安装必备

1. window

学习或开发阶段,我们通常在window环境下进行,因此需满足以下条件:

windows 7 and greater;
windows 10 or greater recommended;
windows server 2008 r2 and greater;

2. python

准备一个python环境,需满足以下条件:

python 3.8-3.11(支持);
python 2.x(不支持);

3. install pytorch

正式安装pytorch执行如下命令(默认最新版):

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

安装successful后,可看到如下界面(来自pycharm):

二、异常情景

1. 请求gpt-2

博主拿gpt作为示例(来自官方),新建一个python文件并取名为hello_gpt2.py,目的是完成gpt2模型的调用,下面是源码 :

from transformers import gpt2lmheadmodel, gpt2tokenizer

# 指定模型名称
model_name = 'gpt2'

# 加载模型和分词器
tokenizer = gpt2tokenizer.from_pretrained(model_name)

model = gpt2lmheadmodel.from_pretrained(model_name)

# 输入文本
input_text = "once upon a time"

# 对输入文本进行分词
inputs = tokenizer.encode(input_text, return_tensors='pt')

# 生成文本
outputs = model.generate(
    inputs,
    max_length=100,  # 生成文本的最大长度
    num_return_sequences=1,  # 生成序列的数量
    temperature=0.7,  # 温度控制生成的多样性,值越高,生成的文本越随机
    top_k=50,  # 控制生成的词汇范围,值越小,生成的文本越集中
    top_p=0.9  # 采样阈值,控制生成的文本多样性
)

# 解码生成的文本
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=true)

print("生成的文本:")
print(generated_text)

2. 异常traceback

当我们执行上面的代码时,极容易遇到以下异常:

traceback (most recent call last):
  file "d:\projects\pycharmprojects\llm_openai_gpt\hello_gpt2.py", line 1, in <module>
    from transformers import gpt2lmheadmodel, gpt2tokenizer
  file "d:\projects\pycharmprojects\llm_openai_gpt\.venv\lib\site-packages\transformers\__init__.py", line 26, in <module>
    from . import dependency_versions_check
  file "d:\projects\pycharmprojects\llm_openai_gpt\.venv\lib\site-packages\transformers\dependency_versions_check.py", line 16, in <module>
    from .utils.versions import require_version, require_version_core
  file "d:\projects\pycharmprojects\llm_openai_gpt\.venv\lib\site-packages\transformers\utils\__init__.py", line 34, in <module>
    from .generic import (
  file "d:\projects\pycharmprojects\llm_openai_gpt\.venv\lib\site-packages\transformers\utils\generic.py", line 462, in <module>
    import torch.utils._pytree as _torch_pytree
  file "d:\projects\pycharmprojects\llm_openai_gpt\.venv\lib\site-packages\torch\__init__.py", line 148, in <module>
    raise err
oserror: [winerror 126] 找不到指定的模块。 error loading "d:\projects\pycharmprojects\llm_openai_gpt\.venv\lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.

关键之处:

oserror: [winerror 126] 找不到指定的模块。error loading "d:\projects\pycharmprojects\llm_openai_gpt\.venv\lib\site-packages\torch\lib\fbgemm.dll" or one of its dependencies.

三、解决办法

根据提示,是因为fbgemm.dll缺少依赖,导致加载异常,所以直接办法去找依赖文件,博主这里给出一个解决的办法:

1. 下载libomp140.x86_64.dll文件

点击 dllme.com后,可看到如下页面:

点击右下角,下载 libomp140.x86_64_x86-64.zip

2. 存放位置

将zip解压后,有一个文件:libomp140.x86_64.dll,转移至 windows\system32 目录下,如存在可覆盖。

完成后,可顺利排除该异常。

结语

该文用于解决pytorch2.4安装后,出现了 oserror: [winerror 126] 找不到指定的模块,error loading "path\torch\lib\fbgemm.dll" or one of its dependencies.的问题,如存在其他异常,还需进一步探索,如有疑问,欢迎指正!

以上就是pytorch中loading fbgemm.dll异常的解决办法的详细内容,更多关于pytorch loading fbgemm.dll异常的资料请关注代码网其它相关文章!

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com