当前位置: 代码网 > 科技>操作系统>Windows > 【开发环境】安装 Hadoop 运行环境 ( 下载 Hadoop | 解压 Hadoop | 设置 Hadoop 环境变量 | 配置 Hadoop 环境脚本 | 安装 winutils )

【开发环境】安装 Hadoop 运行环境 ( 下载 Hadoop | 解压 Hadoop | 设置 Hadoop 环境变量 | 配置 Hadoop 环境脚本 | 安装 winutils )

2024年08月04日 Windows 我要评论
一、下载 Hadoop二、解压 Hadoop三、设置 Hadoop 环境变量四、配置 Hadoop 环境脚本五、安装 winutils六、重启电脑七、验证 Hadoop 安装效果





一、下载 hadoop



hadoop 发布版本在 https://hadoop.apache.org/releases.html 页面可下载 ;
在这里插入图片描述

当前最新版本是 3.3.6 , 点击 binary download 下的 binary (checksum signature) 链接 ,
在这里插入图片描述
进入到 hadoop 3.3.6 下载页面 :

在这里插入图片描述

下载地址为 :

https://dlcdn.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz

官方下载速度很慢 ;

在这里插入图片描述

这里提供一个 hadoop 版本 , hadoop 3.3.4 + winutils , csdn 0 积分下载地址 :





二、解压 hadoop



解压时 , 不要直接使用 解压工具 解压 , 会报错 ;

在这里插入图片描述

在 " 搜索 " 中 , 搜索 cmd , 然后右键点击 命令提示符 应用 ,

在这里插入图片描述
此时弹出的 命令提示符 有 管理员 权限 ;
在这里插入图片描述

进入 hadoop 的安装目录 d:\001_develop\052_hadoop ,

在这里插入图片描述

执行

tar zxvf hadoop-3.3.4.tar.gz

命令 , 解压该压缩包 , 这样可以将 hadoop 完美解压出来 , 不会报错 ;

在这里插入图片描述

解压 hadoop 完成后 , hadoop 路径为

d:\001_develop\052_hadoop\hadoop-3.3.4

在这里插入图片描述





三、设置 hadoop 环境变量



在 环境变量 中 , 设置

hadoop_home = d:\001_develop\052_hadoop\hadoop-3.3.4

系统 环境变量 ;

在这里插入图片描述

在 path 环境变量中 , 增加

%hadoop_home%\bin
%hadoop_home%\sbin

环境变量 ;

在这里插入图片描述





四、配置 hadoop 环境脚本



设置 d:\001_develop\052_hadoop\hadoop-3.3.4\etc\hadoop\hadoop-env.cmd 脚本中的 java_home 为真实的 jdk 路径 ;

set java_home=%java_home%

修改为

set java_home=d:\001_develop\031_java8u144_frida\jdk1.8.0_144

在这里插入图片描述

注意 : 路径中不要出现空格 , 尤其是 program files 目录 , 不要把 jdk 安装在这个目录中 , 有大坑 ;





五、安装 winutils



将 winutils-master\hadoop-3.3.0\bin 中的 hadoop.dll 和 winutils.exe 文件拷贝到 c:\windows\system32 目录中 ;

在这里插入图片描述





六、重启电脑



重启电脑 , 一定要重启 , 否则不生效 ;





七、验证 hadoop 安装效果



然后在命令行中 , 执行

hadoop -version

验证 hadoop 是否安装完成 ;

c:\windows\system32>hadoop -version
java version "1.8.0_144"
java(tm) se runtime environment (build 1.8.0_144-b01)
java hotspot(tm) client vm (build 25.144-b01, mixed mode)

c:\windows\system32>hadoop
usage: hadoop [--config confdir] [--loglevel loglevel] command
where command is one of:
  fs                   run a generic filesystem user client
  version              print the version
  jar <jar>            run a jar file
                       note: please use "yarn jar" to launch
                             yarn applications, not this command.
  checknative [-a|-h]  check native hadoop and compression libraries availability
  conftest             validate configuration xml files
  distch path:owner:group:permisson
                       distributed metadata changer
  distcp <srcurl> <desturl> copy file or directories recursively
  archive -archivename name -p <parent path> <src>* <dest> create a hadoop archive
  classpath            prints the class path needed to get the
                       hadoop jar and the required libraries
  credential           interact with credential providers
  jnipath              prints the java.library.path
  kerbname             show auth_to_local principal conversion
  kdiag                diagnose kerberos problems
  key                  manage keys via the keyprovider
  trace                view and modify hadoop tracing settings
  daemonlog            get/set the log level for each daemon
 or
  classname            run the class named classname

most commands print help when invoked w/o parameters.

c:\windows\system32>

在这里插入图片描述

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com