当前位置: 代码网 > it编程>编程语言>Java > Hadoop单机安装配置 图文保姆级教程—保姆级配置教程—全网最全[官方手册版]

Hadoop单机安装配置 图文保姆级教程—保姆级配置教程—全网最全[官方手册版]

2024年08月01日 Java 我要评论
Hadoop单机安装配置图文保姆级教程—全网最全一、安装前需要1.VMware安装配置:2.相关Hadoop软件包下载3.Ubuntu镜像下载二、Ubuntu系统安装前提声明:已安装可忽略此步(但要有远程传输VMwareTools,和英文版的Ubuntu)三、Hadoop单机+伪分布式配置1.更新apt2.安装Vim3.安装SSH4.配置SSH无密码登陆5.安装Java环境6.安装Hadoop7.单机配置(非分布式)

hadoop单机安装配置 图文保姆级教程—全网最全

一、安装前需要

1.vmware安装配置:

个人博客:https://duanyx.blog.csdn.net/article/details/136539021

2.相关hadoop软件包下载

(1)jdk-8u162-linux-x64.tar

(2)hadoop-3.1.3.tar

已分享到百度网盘:

链接:https://pan.baidu.com/s/1090zbeq2afe3zefpuja6ig?pwd=0616
提取码:0616

3.ubuntu镜像下载

(1).使用国内镜像下载清华大学开源软件镜像站

(2).跳转到网址后下滑页面选择 >>> ubuntu-releases

image-20240228204419645

(3).根据个人体验,推荐选择20.04版本 >>> (点击)下图框住内容即可

image-20240228204749196

(4).选择“ubuntu-20.04.4-desktop-amd64.iso”进行下载 >>> (点击)下图框住内容即可

image-20240228204908256

(5).下载后记得放置合适的位置,尽量不要放在c盘


到这里前期的准备工作就做好了,有的教程会让你安装一些远程传输工具,ubuntu系统中其实自带的


二、ubuntu系统安装

前提声明:已安装可忽略此步(但要有远程传输vmwaretools,和英文版的ubuntu)

1.创建文件夹(此步为让大家安装方便,可忽略)

我在d盘放置了一个:软件,然后里面放置了一个:vmware,然后vmware中放置一个:虚拟机-hadoop1,虚拟机hadoop2,虚拟机镜像三个文件

不要管《虚拟机-ubuntu》那两个文件,是我之前安装好的,看红框框即可

image-20240307194424612

2.文件操作

把下载好的镜像文件放置虚拟机镜像文件中

image-20240307194551838

3.打开vmware

image-20240307194627120

4.点击创建新的虚拟机

image-20240307194656168

5.选择自定义

image-20240307194805348

6.默认操作

image-20240307194813310

7.稍后安装

image-20240307194841247

8.选择linux,ubuntu64位

image-20240307194905140

9.放置在d:\软件\vmware\虚拟机-hadoop1文件中

image-20240307195036410

10.自定义下一步即可

image-20240307195055910

image-20240307195125261

11.使用网络地址转换

image-20240307195138962

12.默认推荐即可

image-20240307195201833

image-20240307195208571

13.创建新虚拟磁盘

image-20240307195522076

14.将虚拟机拆分成多个文件

此步中,有的教程是单文件,其实都可以,无伤大雅

image-20240307195555201

15.下一步,默认选择即可

image-20240307195734072

16.选择自定义硬件

image-20240307195901450

17.在cd/dvd中,使用iso映像文件,选择安装好的镜像地址,并选择启动时连接

如果不选择这一步,可能会导致虚拟机找不到镜像而无法启动

image-20240307201739170

18.开启虚拟机,点击绿色小标箭头即可

image-20240307200005494

18.等待启动

image-20240307200535188

image-20240307201808914

19.选择语言,默认english,就选择englis,然后点击install ubuntu

image-20240307201916533

20.点击右下角continue

image-20240307201952796

21.点击右下角continue

image-20240307202025132

22.点击install now

image-20240307202132670

23.点击continue

image-20240307202150630

24.点击咋们国家的地图,显示:shanghai,然后点击continue

image-20240307202314296

25.按照下图配置

your name和your computer’s name,这里就按照我的来,因为大部分教程都是在你创建你自己的用户之后又重新创建名称为:hadoop的用户,并且把computer’s name改为了master,这里直接改,就避免多此一举了

最后选择log in automatically(自动登陆)

点击continue

image-20240307202434673

26.等待install,这里会比较慢

image-20240307202842888

27.选择重启:restart now

image-20240307204220480

注:到了黑框框的界面的之后记得回车一下,这里没有截图上

28.重启后ubuntu系统就安装好了

image-20240309175744303


到这里ubuntu系统就安装好了,下面是对hadoop集群的配置


三、hadoop单机+伪分布式配置

1.更新apt

更新一下 apt,后续我们使用 apt 安装软件,如果没更新可能有一些软件安装不了。

按 ctrl+alt+t 打开终端窗口,执行如下命令:

sudo apt-get update

输入命令后输入用户密码即可执行操作

image-20240309181103507

2.安装vim

vim是文本编辑器,用于对文件的操作

sudo apt-get install vim

输入命令后输入y确定即可

image-20240309181815794

3.安装ssh

输入命令后,会提示输入:y

sudo apt-get install openssh-server

image-20240309182512156

安装后,可以使用如下命令登陆本机:

ssh localhost

此时会有如下提示(ssh首次登陆提示),输入 yes 。然后按提示输入密码 ,这样就登陆到本机了。

image-20240309182646552

4.配置ssh无密码登陆

但这样登陆是需要每次输入密码的,我们需要配置成ssh无密码登陆比较方便。

退出刚才的 ssh

exit     

回到我们原先的终端窗口

cd ~/.ssh/     

利用 ssh-keygen 生成密钥,会有提示,都按回车就可(大概3个)

ssh-keygen -t rsa        

并将密钥加入到授权中

cat ./id_rsa.pub >> ./authorized_keys  # 加入授权

image-20240309182842835

在使用ssh localhost即可无密码登陆

ssh localhost

image-20240309183014901

5.安装java环境

在安装java和hadoop时都需要使用vmwaretools工具,跟着上述的ubuntu系统安装,vmwaretools是安装好的,这里直接使用

把下载好的jdk-8u371-linux-x64.tar.gz下载到本地电脑,保存在虚拟机的“/home/linziyu/downloads/”目录下。

点击桌面的hadoop文件

image-20240310002840821

点击downloads文件

image-20240310002943425

如图所示

image-20240310003017773

直接把下载好的压缩包拖动到虚拟机的downloads文件夹内

为了下面hadoop安装的方便,也把下载好的hadoop的安装包拖动到downloads文件夹内

如图所示

image-20240310003203525

cd /usr/lib

创建/usr/lib/jvm目录用来存放jdk文件

sudo mkdir jvm 

进入hadoop用户的主目录

cd ~ 

进入到downloads目录下

cd downloads 

把jdk文件解压到/usr/lib/jvm目录下

sudo tar -zxvf ./jdk-8u162-linux-x64.tar.gz -c /usr/lib/jvm  

jdk文件解压缩以后,可以执行如下命令到/usr/lib/jvm目录查看一下

cd /usr/lib/jvm
ls

image-20240418155419911

在/usr/lib/jvm目录下有个jdk1.8.0_162目录。下面继续执行如下命令,设置环境变量

cd ~
vim ~/.bashrc

上面命令使用vim编辑器打开了hadoop这个用户的环境变量配置文件,请在这个文件的开头位置,添加如下几行内容
(“i”,进入编辑)
(编辑完成后,先esc,然后输入:wq,回车)

export java_home=/usr/lib/jvm/jdk1.8.0_162
export jre_home=${java_home}/jre
export classpath=.:${java_home}/lib:${jre_home}/lib
export path=${java_home}/bin:$path

image-20240418155537221

保存.bashrc文件并退出vim编辑器。然后,继续执行如下命令让.bashrc文件的配置立即生效

source ~/.bashrc

这时,可以使用如下命令查看是否安装成功

java -version

如果能够在屏幕上返回如下信息,则说明安装成功

image-20240418155722195

至此,就成功安装了java环境。下面就可以进入hadoop的安装。

6.安装hadoop

解压到/usr/local中

sudo tar -zxf ~/downloads/hadoop-3.1.3.tar.gz -c /usr/local   

将文件夹名改为hadoop

cd /usr/local/
sudo mv ./hadoop-3.1.3/ ./hadoop    

修改文件权限

sudo chown -r hadoop ./hadoop     

hadoop 解压后即可使用。输入如下命令来检查 hadoop 是否可用,成功则会显示 hadoop 版本信息,如下图所示。

cd /usr/local/hadoop
./bin/hadoop version

image-20240418160209030

7.单机配置(非分布式)

此步骤为单机hadoop的一个例子,可跳过此步骤


在此我们选择运行 grep 例子,我们将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中。

cd /usr/local/hadoop
mkdir ./input
cp ./etc/hadoop/*.xml ./input   # 将配置文件作为输入文件
./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar grep ./input ./output 'dfs[a-z.]+'
cat ./output/*          # 查看运行结果

image-20240418160622641

注意,hadoop 默认不会覆盖结果文件,因此再次运行上面实例会提示出错,需要先将 ./output 删除

rm -r ./output

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com