首页 > 其他分享 >CDH入门教程3

CDH入门教程3

时间:2023-02-12 23:34:13浏览次数:48  
标签:lib CDH 入门教程 alternatives hive etc usr var

CDH入门教程3

第5章 卸载CDH(了解)

集群出现错误异常时,再按照本章步骤操作。但是卸载CDH,重新安装只可以解决部分报错,一些极个别顽固报错还是有可能解决不了,所以如果同学们在安装CDH过程中,报的错误,我建议大家直接释放掉阿里云集群,重新购买三台机器重新安装。

5.1 停止所有服务

1)停止所有集群服务

2)停止CMservice

5.2 停用并移除Parcels

1)停用(选择仅限停用状态)

2)从主机删除

5.3 删除集群及CM

5.4 停止服务

[root@hadoop102 parcel-repo]#

/opt/module/cm/cm-5.16.2/etc/init.d/cloudera-scm-agent stop

Stopping cloudera-scm-agent: [确定]

[root@hadoop103 parcel-repo]#

/opt/module/cm/cm-5.16.2/etc/init.d/cloudera-scm-agent stop

Stopping cloudera-scm-agent: [确定]

[root@hadoop104 parcel-repo]#

/opt/module/cm/cm-5.16.2/etc/init.d/cloudera-scm-agent stop

Stopping cloudera-scm-agent: [确定]

[root@hadoop102 parcel-repo]#

/opt/module/cm/cm-5.16.2/etc/init.d/cloudera-scm-server stop

停止 cloudera-scm-server: [确定]

5.5 删除CM数据(三台机器)

[root@hadoop102 ~]# umount cm_processes

[root@hadoop102 ~]# rm -rf /var/lib/cloudera* /var/log/cloudera* /var/run/cloudera*

#删除用户

[root@hadoop102 cm]# userdel cloudera-scm

#删除CM包

[root@hadoop102 ~]# rm -rf /opt/module/cm/

5.6 移除用户数据(三台机器)

#用户数据目录

[root@hadoop102 /]#

rm -rf /var/lib/flume-ng /var/lib/hadoop* /var/lib/hue /var/lib/navigator /var/lib/oozie /var/lib/solr /var/lib/sqoop* /var/lib/zookeeper

[root@hadoop102 /]# rm -rf /usr/lib/hadoop /usr/lib/hadoop* /usr/lib/hive /usr/lib/hbase /usr/lib/oozie /usr/lib/sqoop* /usr/lib/zookeeper /usr/lib/bigtop* /usr/lib/flume-ng /usr/lib/hcatalog

[root@hadoop102 /]# rm -rf /var/run/hadoop* /var/run/flume-ng /var/run/cloudera* /var/run/oozie /var/run/sqoop2 /var/run/zookeeper /var/run/hbase /var/run/hbase /var/run/impala /var/run/hive /var/run/hdfs-sockets

#服务目录

[root@hadoop102 /]# rm -rf /usr/bin/hadoop* /usr/bin/zookeeper* /usr/bin/hbase* /usr/bin/hive* /usr/bin/hdfs /usr/bin/mapred /usr/bin/yarn /usr/bin/sqoop* /usr/bin/oozie

#配置文件目录

[root@hadoop102 /]# rm -rf /etc/cloudera* /etc/hadoop* /etc/zookeeper* /etc/hive* /etc/hue /etc/impala /etc/sqoop* /etc/oozie /etc/hbase* /etc/hcatalog

[root@hadoop102 /]# rm -rf /etc/alternatives/avro-tools /etc/alternatives/beeline /etc/alternatives/catalogd /etc/alternatives/cli_* /etc/alternatives/flume* /etc/alternatives/hadoop* /etc/alternatives/hbase* /etc/alternatives/hcat /etc/alternatives/hdfs /etc/alternatives/hive* /etc/alternatives/hue* /etc/alternatives/impala* /etc/alternatives/llama* /etc/alternatives/load_gen /etc/alternatives/mahout* /etc/alternatives/mapred /etc/alternatives/oozie* /etc/alternatives/pig* /etc/alternatives/pyspark /etc/alternatives/sentry* /etc/alternatives/solr* /etc/alternatives/spark* /etc/alternatives/sqoop* /etc/alternatives/statestored /etc/alternatives/whirr /etc/alternatives/yarn /etc/alternatives/zookeeper*

[root@hadoop102 /]# rm -rf /var/lib/alternatives/avro-tools /var/lib/alternatives/beeline /var/lib/alternatives/catalogd /var/lib/alternatives/cli_* /var/lib/alternatives/flume* /var/lib/alternatives/hadoop* /var/lib/alternatives/hbase* /var/lib/alternatives/hcat /var/lib/alternatives/hdfs /var/lib/alternatives/hive* /var/lib/alternatives/hue* /var/lib/alternatives/impala* /var/lib/alternatives/llama* /var/lib/alternatives/load_gen /var/lib/alternatives/mahout* /var/lib/alternatives/mapred /var/lib/alternatives/oozie* /var/lib/alternatives/pig* /var/lib/alternatives/pyspark /var/lib/alternatives/sentry* /var/lib/alternatives/solr* /var/lib/alternatives/spark* /var/lib/alternatives/sqoop* /var/lib/alternatives/statestored /var/lib/alternatives/whirr /var/lib/alternatives/yarn /var/lib/alternatives/zookeeper*

#hadoop数据目录

[root@hadoop102 /]# rm -rf /dfs /yarn

#安装目录及离线库目录

[root@hadoop102 /]# rm -rf /opt/cloudera/

5.7 停止并移除数据库

#停止服务

[root@hadoop102 /]# service mysql stop

#卸载数据库

[root@hadoop102 /]# yum remove MySQL*

#删除数据目录

[root@hadoop102 ~]# rm -rf /var/lib/mysql/

[root@hadoop102 ~]# rm -rf /usr/my.cnf

5.8 一键删除脚本

本节内容为5.4之后的操作。

[root@hadoop102 bin]# pwd

/root/bin

[root@hadoop102 bin]# vim delete-cloudera.sh

添加如下内容:

#! /bin/bash

for i in hadoop102 hadoop103 hadoop104

do

echo --------- $i ----------

ssh $i "source /etc/profile && umount cm_processes && rm -rf /var/lib/cloudera* /var/log/cloudera* /var/run/cloudera* /opt/module/cm/ /var/lib/flume-ng /var/lib/hadoop* /var/lib/hue /var/lib/navigator /var/lib/oozie /var/lib/solr /var/lib/sqoop* /var/lib/zookeeper /usr/lib/hadoop /usr/lib/hadoop* /usr/lib/hive /usr/lib/hbase /usr/lib/oozie /usr/lib/sqoop* /usr/lib/zookeeper /usr/lib/bigtop* /usr/lib/flume-ng /usr/lib/hcatalog /var/run/hadoop* /var/run/flume-ng /var/run/cloudera* /var/run/oozie /var/run/sqoop2 /var/run/zookeeper /var/run/hbase /var/run/hbase /var/run/impala /var/run/hive /var/run/hdfs-sockets /usr/bin/hadoop* /usr/bin/zookeeper* /usr/bin/hbase* /usr/bin/hive* /usr/bin/hdfs /usr/bin/mapred /usr/bin/yarn /usr/bin/sqoop* /usr/bin/oozie /etc/cloudera* /etc/hadoop* /etc/zookeeper* /etc/hive* /etc/hue /etc/impala /etc/sqoop* /etc/oozie /etc/hbase* /etc/hcatalog /etc/alternatives/avro-tools /etc/alternatives/beeline /etc/alternatives/catalogd /etc/alternatives/cli_* /etc/alternatives/flume* /etc/alternatives/hadoop* /etc/alternatives/hbase* /etc/alternatives/hcat /etc/alternatives/hdfs /etc/alternatives/hive* /etc/alternatives/hue* /etc/alternatives/impala* /etc/alternatives/llama* /etc/alternatives/load_gen /etc/alternatives/mahout* /etc/alternatives/mapred /etc/alternatives/oozie* /etc/alternatives/pig* /etc/alternatives/pyspark /etc/alternatives/sentry* /etc/alternatives/solr* /etc/alternatives/spark* /etc/alternatives/sqoop* /etc/alternatives/statestored /etc/alternatives/whirr /etc/alternatives/yarn /etc/alternatives/zookeeper* /var/lib/alternatives/avro-tools /var/lib/alternatives/beeline /var/lib/alternatives/catalogd /var/lib/alternatives/cli_* /var/lib/alternatives/flume* /var/lib/alternatives/hadoop* /var/lib/alternatives/hbase* /var/lib/alternatives/hcat /var/lib/alternatives/hdfs /var/lib/alternatives/hive* /var/lib/alternatives/hue* /var/lib/alternatives/impala* /var/lib/alternatives/llama* /var/lib/alternatives/load_gen /var/lib/alternatives/mahout* /var/lib/alternatives/mapred /var/lib/alternatives/oozie* /var/lib/alternatives/pig* /var/lib/alternatives/pyspark /var/lib/alternatives/sentry* /var/lib/alternatives/solr* /var/lib/alternatives/spark* /var/lib/alternatives/sqoop* /var/lib/alternatives/statestored /var/lib/alternatives/whirr /var/lib/alternatives/yarn /var/lib/alternatives/zookeeper* /dfs /yarn /opt/cloudera/ && userdel cloudera-scm && service mysql stop && yum remove MySQL* && rm -rf /var/lib/mysql/ /usr/my.cnf"

done

[root@hadoop102 bin]# chmod 777 delete-cloudera.sh

[root@hadoop102 bin]# ./delete-cloudera.sh

第6章 项目实战之配置修改

6.1 HDFS配置域名访问

在阿里云环境下 Hadoop集群必须用域名访问,不能用IP访问,开启如下配置dfs.client.use.datanode.hostname

6.2 设置物理核和虚拟核占比

当前购买的阿里云配置物理核一共为6核,为演示效果将虚拟核扩大1倍,一般真实场景下物理核和虚拟核对比值为1:1或1:2

进入yarn配置,搜索‘yarn.nodemanager.resource.cpu-vcores’修改配置,每台机器物理核2核虚拟成4核

6.3修改单个容器下最大cpu申请资源

修改yarn.scheduler.maximum-allocation-vcores参数调整4核

6.4 设置每个任务容器内存大小和单节点大小

将每个任务容器默认大小从1G调大至4G,当前集群环境下每个节点的物理内存为8G,设置每个yarn可用每个节点内存为7G

修改yarn.scheduler.maximum-allocation-mb 每个任务容器内存所需大小

修改yarn.nodemanager.resource.memory-mb每个节点内存所需大小

6.5 关闭Spark动态分配资源参数

关闭spark.dynamicAllocation.enabled 参数否则分配的资源不受控制

6.6 修改HDFS副本数

修改 副本数为1

6.7 设置容量调度器

CDH默认公平调度器,修改为容量调度器

默认root队列,可以进行修改

添加两个队列spark与hive,spark资源设置占yarn集群80%,hive设置占yarn集群20%

配置完毕后重启服务,到yarn界面查看调度器,已经发生变化有hive队列和spark队列

6.8 修改hive-site.xml的配置

因为我们删除了yarn的default队列,但是hive里面执行sql默认走的还是default,如果不做设置的话,在hive里面执行sql会报错,所以我们需要在hive里面设置三个参数。

set mapreduce.job.queuename=hive;

set mapred.job.queue.name=hive;

set mapred.queue.names=hive;

说明下,这三个参数在hive窗口里执行是对当前窗口生效,属于临时生效。怎么让这三个参数永久生效呢?答案当然是修改hive-site.xml配置文件了。那么问题又来了,apache原生版本的hive,我们可以直接去服务器里面的hive的安装目录下的conf下直接修改hive-site.xml,cdh环境下又该怎么修改呢?答案请往下看

进入hive,选择配置选项,然后搜索hive-site.xml

在‘hive-site.xml 的 Hive 服务高级配置代码段(安全阀)’添加如图所示三个参数

在‘hive-site.xml 的 Hive 客户端高级配置代码段(安全阀)’再次添加

然后重启过时服务,重新部署过期客户端配置,再次进入hive,就可以正常使用hivesql了。

标签:lib,CDH,入门教程,alternatives,hive,etc,usr,var
From: https://www.cnblogs.com/kkk247843405/p/17115011.html

相关文章

  • 大爽Python入门教程 2-7 *拓展实践,对比与思考
    大爽Python入门公开课教案点击查看教程总目录本文偏难。推荐等第一二三四章上完后,回过来拓展阅读。基础情景思考假设有这样一张成绩表最左边的一列是名字,起名麻......
  • 大爽Python入门教程 2-6 拓展练习
    大爽Python入门公开课教案点击查看教程总目录方位输出第一章有一个思考题,方位变换:小明同学站在平原上,面朝北方,向左转51次之后(每次只转90度),小明面朝哪里?小明转过......
  • 开心档-软件开发入门教程网之Node.js GET/POST请求
    Node.jsGET/POST请求在很多场景中,我们的服务器都需要跟用户的浏览器打交道,如表单提交。表单提交到服务器一般都使用GET/POST请求。本章节我们将为大家介绍Node.jsGET/P......
  • Eolink 入门教程:钉钉 API 对接
    系列文章:Eolink神技之一:基于数据库智能生成API文档Eolink神技之二:API全生命周期管理前言这里我通过Eolink的Webhook功能可以对接企业微信、蓝信、飞书等工......
  • 亚马逊商城入门教程_编程入门自学教程_菜鸟教程-免费教程分享
    教程简介亚马逊商城快速指南-从简单和简单的步骤开始学习亚马逊商城,从基本到高级概念,包括为什么选择亚马逊?,亚马逊优势,帐户类型,销售什么?,产品列表,费用,帐户设置,购买盒,运输......
  • 简易的git命令行入门教程
    一、Git全局设置gitconfig--globaluser.name"用户名"gitconfig--globaluser.email"邮件地址@163.com"二、创建git仓库mkdir项目名cd项目名gitinitt......
  • chunjun同步两个带Kerberos认证的CDH集群数据
        最近在项目中遇到同步两个CDH数据文件的需求,调研了一圈,发现datax不支持两个cdh同时进行kerberos认证,因此切换到chunjun,chunjun在kerberos认证的配......
  • Linux入门,Linux入门教程:Linux文件管理
    一、文件命名规则1、可以使用哪些字符?除了字符“/”之外,所有的字符都可以使用,但是要注意,在目录名或文件名中,不建议使用某些特殊字符,例如,<、>、?、*等,尽量避免使用。如果......
  • 星环科技TDH多模型统一架构VS CDH架构
    CDH是Cloudera的开源平台发行版,通过将Hadoop与其他十几个开源项目集成,为企业大数据业务提供服务。在CDH开源大数据方案中,是通过多个互相独立的组件提供相应的能力,每个场景需......
  • 推荐几个不错的CUDA入门教程(非广告)
    ​​CUDA-Programming​​❝最近因为项目需要,入坑了CUDA,又要开始写很久没碰的C++了。对于CUDA编程以及它所需要的GPU、计算机组成、操作系统等基础知识,我基本上都忘光了,因......