首页 > 数据库 >【TPC-DS】trino+S3+hive+postgresql性能测试----hadoop+mysql+hive安装部署(三)

【TPC-DS】trino+S3+hive+postgresql性能测试----hadoop+mysql+hive安装部署(三)

时间:2022-10-21 11:33:59浏览次数:86  
标签:opt postgresql S3 hadoop hive metastore mysql 10.201

总体过程

1、安装hadoop-3.2.0

2、安装hive-standalone-metastore-3.0.0

3、配置环境变量

 

安装hadoop-3.2.0

tar -zxvf hadoop-3.2.0.tar.gz -C /opt/
  • 重定向
ln -sv /opt/hadoop-3.2.0 /opt/hadoop
ln -sv /opt/hadoop/share/hadoop/tools/lib/hadoop-aws* /opt/hadoop/share/hadoop/common/lib/
ln -sv /opt/hadoop/share/hadoop/tools/lib/aws-java-sdk* /opt/hadoop/share/hadoop/common/lib/
  • 配置hadoop环境
vim /etc/profile

添加如下的内容

#set java environment
export JAVA_HOME CLASSPATH PATH
export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin

安装hive-standalone-metastore-3.0.0

tar -zxvf hive-standalone-metastore-3.0.0-bin.tar.gz -C /opt/
  • 重定向
ln -s /opt/apache-hive-metastore-3.0.0-bin /opt/hive-metastore
sed -i 's#/dev/null#/tmp/metastore_start.log#' /opt/apache-hive-metastore-3.0.0-bin/bin/start-metastore
sed -i 's/256/1024/g'

安装mysql-connector-java-5.1.47

tar -zxvf mysql-connector-java-5.1.47
  • 重定向
ln -s /opt/mysql-connector-java-5.1.47/mysql-connector-java-5.1.47.jar /opt/hadoop/share/hadoop/common/lib/ 
ln -s /opt/mysql-connector-java-5.1.47/mysql-connector-java-5.1.47.jar /opt/hive-metastore/lib/

修改和添加配置文件metastore-site.xml

  • 进入目录/opt/hive-metastore/conf/,将hive-site.xml改为metastore-site.xml。将如下的内容复制替换掉metastore-site.xml的文件中
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!--
Licensed to the Apache Software Foundation (ASF) under one or more
contributor license agreements. See the NOTICE file distributed with
this work for additional information regarding copyright ownership.
The ASF licenses this file to You under the Apache License, Version 2.0
(the "License"); you may not use this file except in compliance with
the License. You may obtain a copy of the License at

http://www.apache.org/licenses/LICENSE-2.0

Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
-->

<configuration>
<property>
<name>metastore.task.threads.always</name>
<value>org.apache.hadoop.hive.metastore.events.EventCleanerTask</value>
</property>
<property>
<name>metastore.expression.proxy</name>
<value>org.apache.hadoop.hive.metastore.DefaultPartitionExpressionProxy</value>
</property>

<property>
<name>hive.metastore.warehouse.dir</name>
<value>s3a://fastdata-tsdb/syw/warehouse/</value>
</property>

<property>
<name>hive.metastore.local</name>
<value>false</value>
</property>

<property>
<name>hive.metastore.uris</name>
<value>thrift://10.201.0.124:9083</value>
</property>

<property>
<name>fs.s3a.fast.upload</name>
<value>true</value>
</property>
<property>
<name>fs.s3a.multipart.size</name>
<value>100M</value>
</property>
<property>
   <name>hive.metastore.local</name>
  <value>false</value>
</property>
<property>
   <name>hive.metastore.schema.verification</name>
  <value>false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://10.201.0.125:3306/metastore_db?useSSL=false</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>

</configuration>

 

【重要】如下的内容字段需要根据自己的情况进行修改,其他的内容不变:

  • hive.metastore.uris:自己的服务器地址,注意修改10.201.0.124替换成自己的服务器IP
  • javax.jdo.option.ConnectionURL:自己安装的mysql的连接地址
  • javax.jdo.option.ConnectionUserName:自己mysql数据库的用户名称
  • javax.jdo.option.ConnectionPassword:自己mysql数据库的密码

修改和添加配置文件core-site.xml

  • 进入cd /opt/hadoop/etc/hadoop/ 修改core-site.xml文件,用如下的代码内容替换掉原先的内容即可,不需要做任何的修改
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>fs.s3a.impl</name>
<value>org.apache.hadoop.fs.s3a.S3AFileSystem</value>
</property>
<property>
<name>fs.s3a.access.key</name>
<value>GVO55HIKELKQIN4QSOPL</value>
</property>
<property>
<name>fs.s3a.secret.key</name>
<value>XgdhYuGsXHHg3yi0WySVQ8GwztW4SpIrL5irUdlA</value>
</property>
<property>
<name>fs.s3a.endpoint</name>
<value>obs.cn-southwest-2.myhuaweicloud.com</value>
</property>
<property>
<name>fs.s3a.list.version</name>
<value>1</value>
</property>
</configuration>

catalog中添加hive、postgres、iceberg配置文件

注意:每个服务器都需要添加,直接复制粘贴即可,不需要做任何的修改

  • 进入目录:/root/trino/trino-server-363/etc/catalog
  • 新建hive.properties、postgresql.properties、iceberg.properties文件
  • hive.properties。10.201.0.124注意修改为master的IP,其余内容均不修改
connector.name=hive-hadoop2
hive.metastore.uri=thrift://10.201.0.124:9083
hive.allow-drop-table=true
hive.max-partitions-per-writers=10000
hive.max-partitions-per-scan=1000000
hive.s3.endpoint=obs.cn-southwest-2.myhuaweicloud.com
hive.s3.path-style-access=true
hive.s3.ssl.enabled=false
hive.s3.max-connections=100

 

postgresql.properties。(注意:tpcds是pq数据中常见的库名)

connector.name=postgresql
connection-url=jdbc:postgresql://10.201.0.125:5432/tpcds
connection-user=postgres
connection-password=public

 

  • iceberg.properties,10.201.0.124注意修改为master的IP,其余内容均不修改
connector.name=iceberg
hive.metastore.uri=thrift://10.201.0.124:9083
hive.max-partitions-per-scan=1000000
hive.s3.endpoint=obs.cn-southwest-2.myhuaweicloud.com
hive.s3.path-style-access=true
hive.s3.ssl.enabled=false
hive.s3.max-connections=100

【TPC-DS】trino+S3+hive+postgresql性能测试----hadoop+mysql+hive安装部署(三)_mysql

 

启动metastore(124)

/opt/hive-metastore/bin/start-metastore -p 9083

【TPC-DS】trino+S3+hive+postgresql性能测试----hadoop+mysql+hive安装部署(三)_mysql_02

 

创建metastore_db库

  • 连接mysql,并手动创建库,库名称为:metastore_db
mysql -uroot -h 10.201.0.125 -p
输入密码
create database metastore_db;

【TPC-DS】trino+S3+hive+postgresql性能测试----hadoop+mysql+hive安装部署(三)_hive_03

 

 

mysql库metastore_db中创建表

/opt/hive-metastore/bin/schematool --verbose -initSchema -dbType mysql -userName root  -passWord 123456 -url jdbc:mysql://10.201.0.125:3306/metastore_db?useSSL=false

 

【重要】注意修改10.201.0.125为自己配置的mysql服务器地址

【TPC-DS】trino+S3+hive+postgresql性能测试----hadoop+mysql+hive安装部署(三)_hadoop_04

 

 

  • 进入mysql中验证库中的表

【TPC-DS】trino+S3+hive+postgresql性能测试----hadoop+mysql+hive安装部署(三)_hadoop_05

 

 

启动trino

注:若之前已启动trino。则此处不用再次启动

验证trino环境是否ok

验证环境

./trino --server 10.201.0.125:8080

【TPC-DS】trino+S3+hive+postgresql性能测试----hadoop+mysql+hive安装部署(三)_mysql_06

 

 

  作者:Syw



标签:opt,postgresql,S3,hadoop,hive,metastore,mysql,10.201
From: https://blog.51cto.com/u_15739244/5781761

相关文章

  • 【TPC-DS】trino+S3+hive+postgresql性能测试----生成简单数据验证环境(四)
    1、安装与配置下载安装包gitclonehttps://github.com/gregrahn/tpcds-kit.gitcdtpcds-kit/toolsmakeOS=LINUX存放的位置为:/root/trino(备注:自己定义即可,尽量与trino-ser......
  • mac上fisco bcos3.0安装部署
    fiscobcos3.0包括Air、Pro、Max三个版本,Air适合新手或者开发人员进行测试入门使用,下面就mac电脑安装Air版本进行说明。一、搭建Air版本的fiscobcos联盟链1、安装依赖......
  • 用FineBI实现hive图表的可视化
    图表的可视化,本来我以为很麻烦,因为看着图就感觉很难的样子,其实用FineBI来做很简单。1.安装FineBI2将下列jar包导入FineBI,webapps\webroot\WEB-INF\lib中     ......
  • Hive SQL DDL建表高阶语法
    Hive内部表、外部表什么是内部表 内部表(Internaltable)也称为被Hive拥有和管理的托管表(Managedtable)。默认情况下创建的表就是内部表,Hive拥有该表的结构和文件......
  • postgresql13源码安装部署并部署主从同步和切换
    环境:Os:Centos7DB:13.8主库:192.168.1.134从库:192.168.1.135 ########################################主库:192.168.1.134######################################......
  • HTML5和CSS3的新特性
    HTML5的新特性1.用于绘画的canvas元素;2.用于媒介回放的video和audio;3.本地离线存储;4.新标签:header,footer,nav,section,article5.新的表单控件:date,time,email,url,cale......
  • Sqoop使用mysql上传表到Hive报错
      前几天建民老大给我们进行了第二次的Hive测试,很遗憾,题目很简单,但是我一下午一项都没实现。  而导致我最终也没实现的原因,就是sqoop的一些配置的问题。  因为建民......
  • Hive第二次测试总结
      首先看一下题目:Result文件数据说明:Ip:106.39.41.166,(城市)Date:10/Nov/2016:00:01:02+0800,(日期)Day:10,(天数)Traffic:54,(流量)Type:video,(类型:视频video或文章arti......
  • java连接ranger+ldap认证的hive
        使用java连接ranger+ldap认证的hive,通过jdbc加上用户名密码即可,代码示例如下:importjava.sql.*;publicclassJdbcHiveLdap{privatestaticString......
  • CSS3 -3D转换-位移translate、旋转 rotate3d、透视 perspective、呈现transfrom-style
    CSS-3D转换-位移:translate、旋转:rotate3d、透视:perspective、呈现transfrom-style3D转换我们主要学习工作中最常用的3D位移和3D旋转3D位移:translate3d(x,y,z)3D......