当前位置: 代码网 > it编程>编程语言>Java > 训练DiT报错ERROR:torch.distributed.elastic.multiprocessing.api:failed (exitcode: -9) local_rank: 0

训练DiT报错ERROR:torch.distributed.elastic.multiprocessing.api:failed (exitcode: -9) local_rank: 0

2024年08月01日 Java 我要评论
运行Dit时,torchrun --nnodes=1 --nproc_per_node=8 train.py --model DiT-XL/2 --data-path /home/pansiyuan/jupyter/qianyu/data。此时是多卡计算看不到报错信息。

运行dit时,torchrun --nnodes=1 --nproc_per_node=8 train.py --model dit-xl/2 --data-path /home/pansiyuan/jupyter/qianyu/data

遇到报错

1 完整报错

2 报错关键位置

error:torch.distributed.elastic.multiprocessing.api:failed (exitcode: -9) local_rank: 0 (pid: 83746) of binary: /opt/conda/bin/python traceback (most recent call last):

torch.distributed.elastic.multiprocessing.errors.childfailederror

此时是多卡计算看不到报错信息

采用单卡
torchrun --nnodes=1 --nproc_per_node=1 train.py --model dit-xl/2 --data-path /home/pansiyuan/jupyter/qianyu/data

单卡之后报错结果是数据集找不到

没有找到文件args,data_path是不是出问题了

值得注意的是这里的dit给的路径data_path等等,在train.py文件arg里面都是用的不是下划线

注意这里的指令也需要下划线
torchrun --nnodes=1 --nproc_per_node=8 train.py --model dit-xl/2 --data-path /home/pansiyuan/jupyter/qianyu/data/train

args.data_path

如果使用7张卡设置batch size为256就就如下报错,因为无法整除

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com