当前位置: 代码网 > it编程>游戏开发>ar > 【大数据基础平台】星环TDH社区集群版本部署

【大数据基础平台】星环TDH社区集群版本部署

2024年08月04日 ar 我要评论
TDH企业级一站式大数据基础平台致力于帮助企业更全面、更便捷、更智能、更安全的加速数字化转型。通过数年时间的打磨创新,已帮助数千家行业客户利用大数据平台构建核心商业系统,加速商业创新。为了让大数据技术得到更广泛的使用与应用从而创造更高的价值,依托于TDH强大的技术底座,星环科技推出TDH社区版(Transwarp Data Hub Community Edition)版本,致力于为企业用户、高校师生、科研机构以及其他专业开发人员提供更轻量、更简单、更易用的数据分析开发环境,轻松应对各类人员数据分析需求。

目录

一、概述

二、环境配置

三、安装manager

四、配置集群

五、安装服务

六、基本配置

6.1 开启安全

6.2 安装tdh客户端

6.3 集群外使用hadoop client

6.3.1 使用hadoop/hdfs

6.3.2 使用hbase shell

6.3.3 beeline访问hive


一、概述


社区版官网:tdh社区版-tdh community edition-星环科技

下载

官网安装手册:星环社区版安装手册

安装视频:星环社区版安装视频


二、环境配置


配置jdk

yum install  bash-completion  lrzsz  tree  vim  wget  net-tools  -y

mkdir -p  /usr/java
tar -zxvf jdk-8u162-linux-x64.tar.gz -c  /usr/java

vim /etc/profile
export java_home=/usr/java/jdk1.8.0_162
export classpath=$java_home/lib/
export path=$path:$java_home/bin

source /etc/profile
java -version

关闭防火墙和 selinux

systemctl stop firewalld
systemctl disable firewalld
systemctl status firewalld
# 临时关闭
setenforce 0
sed -i "s/selinux=enforcing/selinux=disabled/g" /etc/selinux/config

安装chrony

yum install chrony -y
# 修改chrony配置文件指定ntp源为阿里ntp
sed -r -i 's?^pool.+iburst?pool ntp.aliyun.com iburst?' /etc/chrony.conf
# 重启chrony服务
systemctl restart chronyd
# 开机自动启动chrony服务
systemctl enable chronyd
# 查看时间服务器状态
chronyc sources -v

主机名映射

/etc/hosts

192.168.2.114 tw-manager
192.168.2.115 tdh-node01
192.168.2.116 tdh-node02

磁盘容量


三、安装manager


解压安装包,然后运行web installer使用图形化界面安装

tar xvzf tdh-platform-community-transwarp-9.3.1-x86_64-final.tar.gz
cd transwarp-9.3.1-x86_64-final
./install

登录如下显示 的web 地址

通过浏览器访问管理节点,进入web installer界面

同意

选择继续

推荐默认端口“8180” ,下一步

安装manager需要一个包含对应版本操作系统的资源库(repo)

【知识分享】安装manager时如何配置rpm仓库

centos-7-os-x86_64安装包下载_开源镜像站-阿里云

index of /centos/7/os/x86_64/

您进行选择后,系统会清理资源库缓存:


资源库缓存清理完毕后,系统会自动开始安装和配置transwarp manager

manager安装完成,可以访问提示的安装地址并使用默认的用户名/密码(admin/admin)去登录管理界面继续接下来的配置。


四、配置集群


默认账号密码为 admin

接受最终用户协议才可以进行进一步

需要给您的集群设置一个名字。输入集群名字后点击“下一步”

如果配置集群中的节点可以通过用主机名互相访问,用户必须配置有效的dns服务器或/etc/hosts文件。否则请选择需要管理工具配置/etc/hosts,transwarp manager会相应为您配置/etc/hosts文件,然后添加节点。

  • ntp配置

编辑机柜,默认下一步

默认下一步

选择添加节点

添加安装的节点服务器

我选择ssh访问权限配置,输入用户名和密码

选中已添加的节点,下一步

配置完成后,点击“下一步”进行节点最终检查,系统将为您进行检查,如果有检查项出现告警,请点击+号查看具体说明并进行对应项的处理。

确定

系统会开始自动添加节点,添加节点的过程会进行一段时间,成功后您会看到成功页面。


五、安装服务


服务需要上传单独的tar,选择上传产品,完后上传后 点击下一步

点击 上传按键,并在以下弹出窗口中选择产品包的位置(可同时上传多个软件包)

上传中

选择产品组件安装

hdfs,yarn,zookeeper 添加

简单认证模式,下一步

下一步

下一步

确定安装

安装中

安装完成

全局服务

集群已安装的组件

组件监控


六、基本配置


6.1 开启安全


进入全局服务下的guardian服务详情页,选择一键开启安全


 

输入密码

完成配置刷新

6.2 安装tdh客户端


manager页面下载客户端,选择“随产品包上传”下载tdh-client。

选择所有组件 ,确定

下载 后上传/opt路径解压

tar -xvf tdh-client.tar

完成后即可使用tdh-client。 使用tdh-client前还需设置java_home环境变量。

执行脚本,请执行位于目录tdh-client内的脚本init.sh。

source tdh-client/init.sh

您可以以任何用户执行该脚本,但是我们建议以root用户身份执行。当以其他用户身份执行时,需要输入root密码。

注意 ,用户必须使用source命令执行该脚本。 当新建一个连接到服务的终端session时,都需要重新执行source init.sh,bash init.sh 和 ./init.sh 都不起作用。


6.3 集群外使用hadoop client


首先您需要保证java_home设置正确。已准备好tdh-client(tdh-client文件夹下有init.sh),下方假定tdh-client存储路径为:/opt

6.3.1 使用hadoop/hdfs

# 查看 principal
klist -kt /opt/tdh-client/kerberos/hdfs.keytab
# 认证
kinit -kt /opt/tdh-client/kerberos/hdfs.keytab hdfs@tdh

创建文件夹和上传文件测试

6.3.2 使用hbase shell


在guardian上下载hbase租户的keytab,假定路径是/tmp/hbase.keytab /opt/tdh-client/kerberos/hbase.keytab, 如果没有认证直接进入 命令报错如下:

klist -kt /opt/tdh-client/kerberos/hbase.keytab

确认后执行下方命令方可使用.

source /opt/tdh-client/init.sh
kinit -kt /opt/tdh-client/kerberos/hbase.keytab hbase@tdh

hbase shel 进入命令行,创建表kangll , put 数据

create 'kangll',{name=>'d',versions => 1,data_block_encoding => 'fast_diff',compression => 'snappy'},{splits=> ['0','1','2','3','4','5','6','7','8','9','a','b','c','d','e','f']}
alter  'kangll', {name => 't',versions => 1,data_block_encoding => 'fast_diff',compression => 'snappy'},{splits=> ['0','1','2','3','4','5','6','7','8','9','a','b','c','d','e','f']}

put 'kangll','e312673c87115b12#20230215#1','t:md','2023-02-23 18:27:07.692'
put 'kangll','f8a5414345987335#20230215#1','t:md','2023-02-23 18:27:07.692'
put 'kangll','ab68b01fb2fb77d9#20230215#1','t:md','2023-02-23 18:27:07.692'
put 'kangll','0fbdc950ab7bac48#20230215#1','t:md','2023-02-23 18:27:07.692'
put 'kangll','03852b8d2e682a2d#20230215#1','t:md','2023-02-23 18:27:07.692'
put 'kangll','36506147bed193c9#20230215#1','t:md','2023-02-23 18:27:07.692'

查询成功

6.3.3 beeline访问hive


source /opt/tdh-client/init.sh
kinit -kt /opt/tdh-client/kerberos/hive.keytab hive@tdh

通过 beeline 命令行连接

beeline -u 'jdbc:hive2://192.168.3.115:10000/default;principal=hive/tw-manager@tdh;kuser=hive@tdh;keytab=/opt/tdh-client/kerberos/hive.keytab;auth=kerberos;krb5conf=/etc/krb5.conf'

创建表时,若没有指定存储格式,默认为textfile,是不支持插入单行或多行的,我们使用select 的方式插入一条数据 作为测试。

guardian添加winner_spark 用户,kerytab文件自动创建,guardian页面上面给winner_spark 用户授hbase, hdfs的使用权限。


参考文档地址:

星环科技 | transwarpcloud

(0)

相关文章:

版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。

发表评论

验证码:
Copyright © 2017-2025  代码网 保留所有权利. 粤ICP备2024248653号
站长QQ:2386932994 | 联系邮箱:2386932994@qq.com