当前位置: 代码网 > it编程>游戏开发>ar > 如何解决启动hadoop集群没有SecondaryNode和DataNode和NameNode问题

如何解决启动hadoop集群没有SecondaryNode和DataNode和NameNode问题

2024年10月10日 ar 我要评论
进行以下操作时别忘记先关闭hadoop集群一. 没有secondarynode的解决方案启动hadoop集群后没有secondarynode:给hadoop集群配置环境变量时,在node1、node2

进行以下操作时别忘记先关闭hadoop集群

一. 没有secondarynode的解决方案

启动hadoop集群后没有secondarynode:

给hadoop集群配置环境变量时,在node1、node2、node3修改/etc/profile 忘记执行source /etc/profile生效

source /etc/profile

启动hadoop集群再jps检查进程

# 一键启动hdfs集群

start-dfs.sh

# 一键关闭hdfs集群

stop-dfs.sh

# 检查进程

jps

这样就有了secondarynode进程

二. 没有datanode的解决方案

启动hadoop集群后没有datanode:

以root用户或权限 删除到hadoop安装目录下的logs下的所有文件

再删除data下的nn下的所有文件和data下的dn下的所有文件

rm -rf /export/server/hadoop/logs/*
rm -rf /data/nn/* ; rm -rf /data/dn/*

删除完后记得回到hadoop用户(我是新建了个hadoop用户防止以root用户启动hadoop出现问题)格式化namenode再启动hadoop集群

# 格式化namenode

hadoop namenode -format

# 一键启动hdfs集群

start-dfs.sh

# 一键关闭hdfs集群

stop-dfs.sh

如果不格式化namenode就会出现如下情况(namenode进程未启动)

三. 没有namenode的解决方案

启动hadoop集群后没有namenode:

格式化namenode再启动hadoop集群

# 格式化namenode

hadoop namenode -format

# 一键启动hdfs集群

start-dfs.sh

# 一键关闭hdfs集群

stop-dfs.sh

至此hadoop成功启动

总结

以上为个人经验,希望能给大家一个参考,也希望大家多多支持代码网。

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com