首页 > 其他分享 >本地搭建otlp

本地搭建otlp

时间:2024-06-13 17:00:11浏览次数:8  
标签:otlp dmdba 数据库 grafana prometheus ini 本地 local 搭建

采集+监控2.0

1.应用

LB 配置文件,nginx自带的ngx_http_stub_status_module提供的/nginx_status(可自定义命名)端点输出的是nginx自己的简单状态信息

vim InforSuiteLB/conf/InforSuiteLB.conf
 <!-- <jvm-options>-Dotel.jmx.config=${com.sun.aas.installRoot}/lib/config_file.yaml</jvm-options> -->
<jvm-options>-Dotel.jmx.enabled=true</jvm-options>
<jvm-options>-javaagent:${com.sun.aas.installRoot}/../otlpagent/lib/opentelemetry-javaagent-1.32.1github.jar</jvm-options>
<jvm-options>-Dotel.logs.exporter=otlp</jvm-options>
<jvm-options>-Dotel.traces.exporter=otlp</jvm-options>
<jvm-options>-Dotel.metrics.exporter=otlp</jvm-options>
<jvm-options>-Dotel.instrumentation.common.default-enabled=true</jvm-options>
<jvm-options>-Dotel.jmx.discovery.delay=1000</jvm-options>
<jvm-options>-Dotel.metric.export.interval=5000</jvm-options>
<jvm-options>-Dotel.exporter.otlp.endpoint=http://192.168.137.123:4317</jvm-options>
<jvm-options>-Dotel.resource.attributes=service.name=GlassFish5,GF.version=V5</jvm-options>
<jvm-options>-Dotel.experimental.resource.disabled-keys=host.arch,process.command_line,process.pid,process.executable.path,telemetry.auto.version,telemetry.sdk.language,telemetry.sdk.name,telemetry.sdk.version</jvm-options>
<jvm-options>-Dotel.java.disabled.resource.providers=io.opentelemetry.instrumentation.resources.OsResourceProvider,io.opentelemetry.instrumentation.resources.ProcessRuntimeResourceProvider</jvm-options>

配置好启动应用即可

2.metrics

1.prometheus 数据源

# 1 进入安装目录
cd /usr/local
# 2 下载安装包
wget https://github.com/prometheus/prometheus/releases/download/v2.42.0/prometheus-2.42.0.linux-amd64.tar.gz
# 3 解压
tar -zxvf prometheus-2.42.0.linux-amd64.tar.gz
# 4 重命名
mv prometheus-2.42.0.linux-amd64 prometheus

配置开机自启动

vim /usr/lib/systemd/system/prometheus.service
[Unit]
Description=Prometheus
After=network.target
Documentation=https://prometheus.io/

[Service]
Type=simple
ExecStart=/usr/local/prometheus/prometheus --config.file=/usr/local/prometheus/prometheus.yml --storage.tsdb.path=/usr/local/prometheus/data --web.listen-address=:9090 --web.enable-lifecycle --enable-feature=remote-write-receiver,exemplar-storage 
Restart=on-failure

[Install]
WantedBy=multi-user.target

配置文件暂时不用修改

启动

# 重新加载服务文件
systemctl daemon-reload
# 设置开机自启
systemctl enable prometheus
# 启动prometheus
systemctl start prometheus
# 查看prometheus状态
systemctl status prometheus

# 查看服务是否启动
lsof -i:9090

3.logs

1.loki

下载

mkdir /usr/local/loki

###下载二进制包
wget "https://github.com/grafana/loki/releases/download/v2.7.4/loki-linux-amd64.zip"
###解压二进制包
unzip "loki-linux-amd64.zip"
### make sure it is executable
chmod a+x "loki-linux-amd64"

配置

vim loki-local-config.yml
auth_enabled: false
 
server:
  http_listen_port: 3100
  grpc_listen_port: 9096
 
ingester:
  lifecycler:
    address: 127.0.0.1
    ring:
      kvstore:
        store: inmemory
      replication_factor: 1
    final_sleep: 0s
  chunk_idle_period: 10m
  chunk_retain_period: 30s
schema_config:
  configs:
  - from: 2020-05-15
    store: boltdb
    object_store: filesystem
    schema: v11
    index:
      prefix: index_
      period: 168h
storage_config:
  boltdb:
    directory: /usr/local/loki/index
  filesystem:
    directory: /usr/local/loki/chunks  # 块存储路径
 
limits_config:
  enforce_metric_name: false
  reject_old_samples: true          # 是否拒绝老样本
  reject_old_samples_max_age: 168h  # 168小时之前的样本将会被删除
  ingestion_rate_mb: 200
  ingestion_burst_size_mb: 300
  per_stream_rate_limit: 1000MB
  max_entries_limit_per_query: 10000
chunk_store_config:
  max_look_back_period: 168h        # 为避免查询超过保留期的数据,必须小于或等于下方的时间值
table_manager:
  retention_deletes_enabled: true   # 保留删除开启
  retention_period: 168h            # 超过168h的块数据将被删除
 
ruler:
  storage:
    type: local
    local:
      directory: /usr/local/loki/rules
  rule_path: /usr/loca/loki/rules-temp
  alertmanager_url: http://192.168.209.132:9093    # alertmanager地址
  ring:
    kvstore:
      store: inmemory
  enable_api: true
  enable_alertmanager_v2: true

启动文件

vim restart-loki.sh

配置

#!/bin/bash
echo "stop loki"
ps -ef | grep loki-linux-amd64 | grep -v grep | awk '{print $2}'| xargs kill -9 
 
echo "Begin start loki"
sleep 1
str=$"\n"
nohup ./loki-linux-amd64 --config.file=loki-local-config.yml &
sstr=$(echo -e $str)
echo $sstr
### 增加执行权限
chmod +x restart-loki.sh
### 启动
cd /usr/local/loki
./restart-loki.sh

2.日志代理 Promtail

下载

mkdir /usr/local/promtail

###下载二进制包
wget "https://github.com/grafana/loki/releases/download/v2.7.4/promtail-linux-amd64.zip"
###解压二进制包
unzip promtail-linux-amd64
### make sure it is executable
chmod a+x "promtail-linux-amd64"

配置

vim promtail-local-config.yml
server:
  http_listen_port: 9080
  grpc_listen_port: 0

positions:
  filename: /usr/local/promtail/positions.yaml

clients:
  - url: http://192.168.209.132:3100/loki/api/v1/push # 填写好Loki地址

scrape_configs:
- job_name: nginx
  pipeline_stages:
  - replace:
      expression: '(?:[0-9]{1,3}\.){3}([0-9]{1,3})'
      replace: '***'
  static_configs:
  - targets:
      - localhost
    labels:
      job: nginx_access_log
      host: appfelstrudel
      agent: promtail
      __path__: /usr/local/InforSuiteLB/logs/json_access.log

启动文件

vi restart-promtail.sh

配置

#!/bin/bash
echo "Begin stop promtail"
ps -ef | grep promtail-linux-amd64 | grep -v grep | awk '{print $2}' | xargs kill -9
 
echo "Begin start promtail...."
nohup ./promtail-linux-amd64 --config.file=promtail-local-config.yml > ./promtail-9080.log 2>&1 &
### 增加执行权限
chmod +x restart-promtail.sh
### 启动
cd /usr/local/promtail
./restart-promtail.sh

4.OpenTelemetry Collector

rpm安装

rpm -ivh otelcol_0.94.0_linux_amd64.rpm

配置文件

vim /etc/otelcol/config.yaml
# To limit exposure to denial of service attacks, change the host in endpoints below from 0.0.0.0 to a specific network interface.
# See https://github.com/open-telemetry/opentelemetry-collector/blob/main/docs/security-best-practices.md#safeguards-against-denial-of-service-attacks

extensions:
  health_check:
  pprof:
    endpoint: 0.0.0.0:1777
  zpages:
    endpoint: 0.0.0.0:55679

receivers:
  otlp:
    protocols:
      grpc:
        endpoint: 0.0.0.0:4317
      http:
        endpoint: 0.0.0.0:4318

  opencensus:
    endpoint: 0.0.0.0:55678

  # Collect own metrics
  prometheus:
    config:
      scrape_configs:
      - job_name: 'nginx-stub-status'
        scrape_interval: 10s
        static_configs:
        - targets: ['192.168.209.132:9113']
          labels:
            job: 'nginx-stub-status'


  jaeger:
    protocols:
      grpc:
        endpoint: 0.0.0.0:14250
      thrift_binary:
        endpoint: 0.0.0.0:6832
      thrift_compact:
        endpoint: 0.0.0.0:6831
      thrift_http:
        endpoint: 0.0.0.0:14268

  zipkin:
    endpoint: 0.0.0.0:9411


processors:
  batch:

exporters:
  debug:
    verbosity: detailed
  prometheus/metrics:
    endpoint: "192.168.209.132:1234"
  prometheusremotewrite:  #与debug同级
    endpoint: "http://localhost:9090/api/v1/write"  #配置prometheus远程写入
    resource_to_telemetry_conversion:
      enabled: true
    tls:
      insecure: true


service:

  pipelines:

    traces:
      receivers: [otlp, opencensus, jaeger, zipkin]
      processors: [batch]
      exporters: [debug]

    metrics:
      receivers: [otlp, opencensus, prometheus]
      processors: [batch]
      exporters: [debug, prometheus/metrics, prometheusremotewrite]

    logs:
      receivers: [otlp]
      processors: [batch]
      exporters: [debug]


  extensions: [health_check, pprof, zpages]

启动服务

# 重新加载服务文件
systemctl daemon-reload
# 设置开机自启
systemctl enable otelcol
# 启动grafana
systemctl start otelcol
# 查看grafana状态
systemctl status otelcol

5.grafana 安装

# 1 进入安装目录
cd /usr/local
# 2 下载安装包
wget https://dl.grafana.com/oss/release/grafana-9.4.3.linux-amd64.tar.gz
# 3 解压
tar -zxvf grafana-9.4.3.linux-amd64.tar.gz
# 4 重命名
mv grafana-9.4.3 grafana

修改配置文件

vi /usr/local/grafana/conf/defaults.ini
修改 allow_embedding 设置为 true  允许嵌入
   [security]
   allow_embedding = true

   [live]
   allowed_origins = *  允许跨域

   [auth.jwt]
   enabled = true
   enable_login_token = true
   header_name = X-JWT-Assertion
   email_claim = email
   username_claim = sub
   jwk_set_url =
   jwk_set_file = /usr/local/grafana/conf/jwks.json  #需要在启动前将jwks.json(该文件在附件的grafana目录中)放到该目录下(任何位置都可以,但需要文件位置和这里对应),赋一个可执行的权限
   cache_ttl = 60m
   expect_claims = {"iss": "https://jwt.io/"}
   key_file =
   role_attribute_path = role
   role_attribute_strict = true
   auto_sign_up = false
   url_login = true
   allow_assign_grafana_admin = false
   skip_org_role_sync = false

配置开机自启动

# 创建grafana.service文件
vim /usr/lib/systemd/system/grafana.service
[Unit]
Description=Grafana
After=network.target

[Service]
Type=notify
ExecStart=/usr/local/grafana/bin/grafana-server -homepath /usr/local/grafana
Restart=on-failure

[Install]
WantedBy=multi-user.target

启动

# 重新加载服务文件
systemctl daemon-reload
# 设置开机自启
systemctl enable grafana
# 启动grafana
systemctl start grafana
# 查看grafana状态
systemctl status grafana

# 查看服务是否启动
lsof -i:3000

启动后,打开前端(3000端口)配置数据源、仪表盘(nginx指标导入模板ID: 11199,nginx日志导入模板ID: 12559)

6.结果展示

image-20240221141650780image-20240221141710175

image-20240222163954219

image-20240222164008692

安装前准备
【登录root用户】创建用户
进入centos7系统中,使用以下命令创建用户,此处用户名称为:dmdba

格式:useradd 用户名称

useradd dmdba

给用户dmdba设置密码,此处用户密码为:dmdba

格式: passwd dmdba的密码

passwd dmdba

【登录root用户】设置限制资源配置
编辑limits.conf 文件

vim /etc/security/limits.conf

在limits.conf文件中加入以下配置

格式:用户名 hard nofile 65536

dmdba hard nofile 65536

格式:用户名 soft nofile 65536

dmdba soft nofile 65536

格式:用户名 hard stack 32768

dmdba hard stack 32768

格式:用户名 oft stack 16384

dmdba soft stack 16384

保存退出后,登录dmdba用户,使用命令查看配置结果,

ulimit -a

若输出内容中显示有open files (-n) 65536 和 stack size (kbytes,-s) 16384,表明已经生效。

【登录dmdba用户】
上传iso文件
登录dmdba用户后,
使用命令进入当前用户的登录目录下,默认情况下登录进入的目录就是当前用户的目录。

cd ~

将解压得到的iso文件上传到当前登录者目录下。

挂载iso
在当前登录者目录下创建文件夹:dm8 此文件夹用于挂载iso

格式: mkdir 文件夹名称

mkdir ~/dm8

登录root,使用命令将上传的iso文件挂载到dm8 目录

格式:mount -o loop iso文件名称 dm8文件夹路径

mount -o loop dm8_20220720_x86_rh7_64_ent_8.1.2.114_pack11.iso /home/dmdba/dm8

挂载成功后,dm8文件夹中存在下图所示的文件

创建安装路径
在 挂载目录 dm8 同级目录下创建文件夹install,此文件夹作为安装达梦8数据库的安装路径。

mkdir ~/install

开始安装
【登录dmdba用户】安装
进入挂载目录dm8 下

cd ~/dm8

执行 DMInstall.bin 达梦安装脚本

./DMInstall.bin -i

安装时选项:

选择对应的语言,输入C表示使用中文
key文件路径,输入N表示不使用key
是否设置时区,输入y后进入时区设置
时区选择输入21,表示使用中国标准时间
安装类型输入1,典型安装
安装目录输入时,输入 自己创建的安装文件夹路径,此处为:~/install 或 /home/dmdba/install
等待安装完成

【登录dmdba用户】初始化实例
安装成功后,install目录下会存在以下的目录结构。

并在install 目录下创建数据存储文件夹data

mkdir ~/install/data

初始化前建议查看初始化相关参数
进入bin目录,

cd ~/install/bin

使用命令查看初始化参数说明

./dminit help

参数说明如下:

[dmdba@localhost bin]$ ./dminit help
initdb V8
db version: 0x7000c
file dm.key not found, use default license!
License will expire on 2023-07-20
version: 03134283890-20220720-165295-10045 Pack11
格式: ./dminit KEYWORD=value

例程: ./dminit PATH=/public/dmdb/dmData PAGE_SIZE=16

关键字 说明(默认值)

INI_FILE 初始化文件dm.ini存放的路径
PATH 初始数据库存放的路径
CTL_PATH 控制文件路径
LOG_PATH 日志文件路径
EXTENT_SIZE 数据文件使用的簇大小(16),可选值:16, 32, 64,单位:页
PAGE_SIZE 数据页大小(8),可选值:4, 8, 16, 32,单位:K
LOG_SIZE 日志文件大小(256),单位为:M,范围为:256M ~ 2G
CASE_SENSITIVE 大小敏感(Y),可选值:Y/N,1/0
CHARSET/UNICODE_FLAG 字符集(0),可选值:0[GB18030],1[UTF-8],2[EUC-KR]
SEC_PRIV_MODE 权限管理模式(0),可选值:0[TRADITION],1[BMJ],2[EVAL]
LENGTH_IN_CHAR VARCHAR类型长度是否以字符为单位(N),可选值:Y/N,1/0
SYSDBA_PWD 设置SYSDBA密码(SYSDBA)
SYSAUDITOR_PWD 设置SYSAUDITOR密码(SYSAUDITOR)
DB_NAME 数据库名(DAMENG)
INSTANCE_NAME 实例名(DMSERVER)
PORT_NUM 监听端口号(5236)
BUFFER 系统缓存大小(100),单位M
TIME_ZONE 设置时区(+08:00)
PAGE_CHECK 页检查模式(0),可选值:0/1/2
PAGE_HASH_NAME 设置页检查HASH算法
EXTERNAL_CIPHER_NAME 设置默认加密算法
EXTERNAL_HASH_NAME 设置默认HASH算法
EXTERNAL_CRYPTO_NAME 设置根密钥加密引擎
RLOG_ENC_FLAG 设置日志文件是否加密(N),可选值:Y/N,1/0
USBKEY_PIN 设置USBKEY PIN
PAGE_ENC_SLICE_SIZE 设置页加密分片大小,可选值:0、512、4096,单位:Byte
ENCRYPT_NAME 设置全库加密算法
BLANK_PAD_MODE 设置空格填充模式(0),可选值:0/1
SYSTEM_MIRROR_PATH SYSTEM数据文件镜像路径
MAIN_MIRROR_PATH MAIN数据文件镜像
ROLL_MIRROR_PATH 回滚文件镜像路径
MAL_FLAG 初始化时设置dm.ini中的MAL_INI(0)
ARCH_FLAG 初始化时设置dm.ini中的ARCH_INI(0)
MPP_FLAG Mpp系统内的库初始化时设置dm.ini中的mpp_ini(0)
CONTROL 初始化配置文件(配置文件格式见系统管理员手册)
AUTO_OVERWRITE 是否覆盖所有同名文件(0) 0:不覆盖 1:部分覆盖 2:完全覆盖
USE_NEW_HASH 是否使用改进的字符类型HASH算法(1)
ELOG_PATH 指定初始化过程中生成的日志文件所在路径
AP_PORT_NUM 分布式环境下协同工作的监听端口
DFS_FLAG 初始化时设置dm.ini中的DFS_INI(0)
DFS_PATH 启用dfs时指定数据文件的缺省路径
DFS_HOST 指定连接分布式系统DFS的服务地址(localhost)
DFS_PORT 指定连接分布式系统DFS的服务端口号(3332)
DFS_COPY_NUM 指定分布式系统的副本数(3)
DFS_DB_NAME 指定分布式系统的中数据库名(默认与DB_NAME一致)
SHARE_FLAG 指定分布式系统中该数据库的共享属性(0)
REGION_MODE 指定分布式系统中该数据库的系统表空间数据文件的区块策略(0) 0:微区策略 1:宏区策略
HUGE_WITH_DELTA 是否仅支持创建事务型HUGE表(1) 1:是 0:否
RLOG_GEN_FOR_HUGE 是否生成HUGE表REDO日志(0) 1:是 0:否
PSEG_MGR_FLAG 是否仅使用管理段记录事务信息(0) 1:是 0:否
CHAR_FIX_STORAGE CHAR是否按定长存储(N),可选值:Y/N,1/0
SQL_LOG_FORBID 是否禁止打开SQL日志(N),可选值:Y/N,1/0
DPC_MODE 指定DPC集群中的实例角色(0) 0:无 1:MP 2:BP 3:SP,取值1/2/3时也可以用MP/BP/SP代替
HELP 打印帮助信息

初始化注意事项
在上诉的初始化参数中,以下四个参数一旦配置,之后无法修改,初始化时请谨慎设置:

页大小 (page_size)
簇大小 (extent_size)
大小写敏感 (case_sensitive)
字符集 (charset)
开始初始化
进入 bin 目录

cd ~/install/bin

使用以下命令进行初始化实例

说明:

path=/home/dmdba/install/data: 指定数据存放目录

PAGE_SIZE=32 :数据文件的页大小32,设置后无法修改

EXTENT_SIZE=32:簇大小32,设置后无法修改

CASE_SENSITIVE=N:大小写不敏感,设置后无法修改

CHARSET=1 :字符集UTF-8,设置后无法修改

DB_NAME=ZHANGXIAOSAN: 数据库名称,自定义,ZHANGXIAOSAN为我自定义的数据库名称

INSTANCE_NAME=ZHANGXIAOSAN_SERVER:数据库服务名称,自定义,ZHANGXIAOSAN_SERVER为服务名称

PORT_NUM=5236:服务端口号5236

./dminit path=/home/dmdba/install/data PAGE_SIZE=32 EXTENT_SIZE=32 CASE_SENSITIVE=N CHARSET=1 DB_NAME=ZHANGXIAOSAN INSTANCE_NAME=ZHANGXIAOSAN_SERVER PORT_NUM=5236

初始化完成之后,在 ~/install/data下可以看到文件夹ZHANGXIAOSAN,这个ZHANGXIAOSAN就是 数据库存放数据的地址

ll ~/install/data

启动数据库
【登录root用户】注册数据库服务方式启动
进入~/install/script/root目录下,看到dm_service_installer.sh脚本文件,此脚本文件为数据库服务注册脚本文件。

cd ~/install/script/root

注册服务前建议使用命令查看注册服务脚本参数说明

./dm_service_installer.sh -h

输出的说明如下:

[root@localhost root]# ./dm_service_installer.sh -h
Usage: dm_service_installer.sh -t service_type [-p service_name_postfix] [-dm_ini dm_ini_file]
[-watcher_ini watcher_ini_file ] [-monitor_ini monitor_ini_file] [-cssm_ini cssm_ini_file]
[-dfs_ini dfs_ini_file] [-dcr_ini dcr_ini_file]
[-dss_ini dss_ini_file] [-drs_ini drs_ini_file] [-dras_ini dras_ini_file] [-dcs_ini dcs_ini_file] [-server server_info]
[-dmap_ini dmap_ini_file] [-dpc_mode SP|MP|BP] [-m open|mount] [-y dependent_service] [-auto true|false]
or dm_service_installer.sh [-s service_file_path]
or dm_service_installer.sh -h

-t 服务类型,包括dmimon,dmap,dmserver,dmwatcher,dmmonitor,dmcss,dmcssm,dmasmsvr,dmasmsvr3,dmdcs,dmdrs,dmdras,dmdss
-p 服务名后缀,对于dmimon,dmap服务类型无效
-dm_ini dm.ini文件路径
-watcher_ini dmwatcher.ini文件路径.
-monitor_ini dmmonitor.ini文件路径.
-dcr_ini dmdcr.ini文件路径.
-cssm_ini dmcssm.ini文件路径.
-dss_ini dss.ini文件路径.
-drs_ini drs.ini文件路径.
-dras_ini dras.ini文件路径.
-dcs_ini dcs.ini文件路径.
-dfs_ini dfs.ini文件路径.
-dmap_ini dmap.ini文件路径.
-dpc_mode DPC节点类型.
-server 服务器信息(IP:PORT)
-auto 设置服务是否自动启动,值为true或false,默认true.
-m 设置服务器启动模式open或mount,只针对dmserver服务类型生效,可选
-y 设置依赖服务,此选项只针对systemd服务环境下的dmserver,dmasmsvr,dmasmsvr3服务生效
-s 服务脚本路径,设置则忽略除-y外的其他参数选项
-h 帮助

使用命令注册数据库服务

说明:

-t dmserver :指定服务类型为dmserver

-p ZHANGXIAOSAN:指定服务名后缀,后缀为ZHANGXIAOSAN,生成的启动脚本后缀

-dm_ini=/home/dmdba/install/data/ZHANGXIAOSAN/dm.ini :指定ZHANGXIAOSAN数据库的初始化文件地址

./dm_service_installer.sh -t dmserver -p ZHANGXIAOSAN -dm_ini /home/dmdba/install/data/ZHANGXIAOSAN/dm.ini

服务注册完成后进入bin目录

cd ~/install/bin
1
启动方式1 (推荐)
在bin目录下可以看到后缀名为ZHANGXIAOSAN的启动脚本。例如:**DmServerZHANGXIAOSAN **
使用以下命令可以以命令行的方式启动数据库

查看数据库状态

./DmServerZHANGXIAOSAN status

停止数据库

./DmServerZHANGXIAOSAN stop

启动数据库

./DmServerZHANGXIAOSAN start

重启数据库

./DmServerZHANGXIAOSAN restart

启动方式2
使用以下命令启动,会输出启动的详细日志,但是只在当前会话中有效

./dmserver /home/dmdba/install/data/ZHANGXIAOSAN/dm.ini

启动的脚本(非必须)
这个脚本是我个人写的,方便自己使用,需要的要根据实际情况来修改脚本相关内容
脚本名: myDmTool.sh

!/bin/bash

echo "南山项目-达梦8数据库脚本"
echo
echo "1. 启动达梦数据库"
echo "2. 查看达梦数据库状态"
echo "3. 查看达梦数据库进程信息"
echo "4. 重启达梦数据库"
echo "5. 关闭达梦数据库"
echo "0. 退出"

服务启动脚本存放路径

startShellPath=/home/dmdba/install/bin/

服务启动脚本名称

startShellName="DmServerZHANGXIAOSAN"

示例数据存放的文件夹名称,即data下的示例文件夹名称

dataDirInstName="ZHANGXIAOSAN"
read -ep "请选择:" select

function showThreadInfo {
echo "达梦数据库进程信息:"
ps -ef|grep ${dataDirInstName}
}

function select0 {
echo "退出脚本"
exit 1001
}

function select1 {
cd ${startShellPath}
./${startShellName} start

showThreadInfo

}

function select2 {
cd ${startShellPath}
./${startShellName} status
}

function select4 {
cd ${startShellPath}
./${startShellName} restart
}

function select5 {
cd ${startShellPath}
./${startShellName} stop
}

if [ 1 == ${select} ]
then
select1
elif [ 2 == ${select} ]
then
select2
elif [ 3 == ${select} ]
then
showThreadInfo
elif [ 4 == ${select} ]
then
select4
elif [ 5 == ${select} ]
then
select5
else
select0
fi

验证数据库是否可用
启动成功后,进入达梦提供的工具文件夹中

cd /home/dmdba/install/tool/

在此文件夹中可以看到以下达梦提供的工具

我们使用disql 工具来登录数据库。通过命令行的方式登录。
使用命令,打开disql 工具

./disql

在命令行中输入以下命令登录达梦数据库.
注意: SYSDBA的密码为SYSDBA

conn

参考链接:https://blog.csdn.net/qq_38313548/article/details/128557507

标签:otlp,dmdba,数据库,grafana,prometheus,ini,本地,local,搭建
From: https://www.cnblogs.com/hmk7710/p/18246230

相关文章

  • RedHat7配置本地yum源
    RedHat7配置本地yum源创建挂载点mkdir/mnt/cdrom将ISO文件挂载到挂载点mount/dev/cdrom/mnt/cdrom在/etc/yum.repos.d/目录下创建repo文件cd/etc/yum.repos.dtouchlocal.repo新建local.repo文件内容如下:[name]name=linux#定义了仓库的名称,什么名称都行bas......
  • 2024 年最新 Python 使用 gewe 框架搭建微信机器人实现语音智能回复(详细教程)
    Gewe个微框架GeWe(个微框架)是一个创新性的软件开发框架,专注于IPAD协议,为个人微信号以及企业信息安全提供了强大的功能和保障。GeWe的设计旨在简化开发过程,使开发者能够高效、灵活地构建和定制通信协议,以满足不同应用场景的需求。灵活可扩展:GeWe框架采用灵活可扩展的设计理......
  • 智慧农场小程序家畜认养app拼团自营商城搭建源码部署
    随着科技的进步和人们对健康生活方式的追求,智慧农场小程序应运而生,为人们提供了一种全新的农业体验方式。该小程序集成了家畜认养和拼团自营商城搭建的功能,旨在满足用户对新鲜、健康、有机农产品的需求,同时也为农场主提供了更多的销售渠道和收益方式。一、智慧农场小程序的家......
  • DNF单机源码架设教程|无需服务器|虚拟机一键搭建
    一.搭建所需要的文件获取地址:https://githubs.xyz/boot/?app=15二.搭建步骤只需一台windows系统,首先需要安装vm虚拟机目录在vm虚拟机下面安装完成打开需要输入激活序列号,在VM序列号.txt里面,16.0的左上角文件打开选择:服务端->DNFServer7.9x64.vmx打开左上角......
  • 微信小程序分销商城源码系统 致力于中小企业低成本建站 带完整的安装代码包以及搭建教
    系统概述微信小程序凭借其无需下载、即用即走的特点,已成为连接用户与服务的重要桥梁。微信小程序分销商城源码系统正是基于微信小程序平台,集商品展示、在线交易、分销推广、订单管理等功能于一体的综合电商解决方案。该系统设计之初,就充分考虑了中小企业的实际需求,力求在不增......
  • 响应式企业网站建站系统源码 模版丰富+一站式建站 全开源可二次开发 带源码包+搭建部
    系统概述在数字化转型的浪潮中,企业官网作为品牌展示、产品推广及客户服务的重要窗口,其建设质量直接影响着企业的线上形象与市场竞争力。响应式企业网站建站系统源码的出现,为企业提供了一种高效、灵活且成本可控的建站解决方案。代码示例系统特色功能一览   1. 丰富......
  • 多校园跑腿小程序源码系统 帮取+代拿+外卖配送 功能超多 带完整的安装代码包+搭建部署
    系统概述多校园跑腿小程序源码系统是一款基于微信小程序平台开发的全功能校园服务应用。该系统采用先进的前后端分离架构,结合云服务技术,确保了系统的高可用性、可扩展性和安全性。系统设计之初就充分考虑到了多校园环境的特殊性,支持多校区独立运营或跨校联合运营模式,满足不同......
  • Java环境搭建——JDK安装和环境搭建
    1、开发Java程序需要:JDK+源代码编辑器;        JDK:Java开发工具包;        源代码编辑器:有windows记事本,eclipse,IntellijIDEA(推荐)等2、Java——半编译半解析型编译语言      Java语言能够跨平台是因为Java程序需要在JVM上运行......
  • FlowUs本地部署:数据自主权与定制化服务的完美融合|FlowUs息流企业级解决方案本地私有化
    在当今数字化时代,企业对数据的控制和安全性要求越来越高,同时,用户对软件的使用习惯也趋向多样化。针对这些需求,FlowUs作为一款多功能的协作平台,提供了灵活的解决方案。FlowUs本地部署对于有本地化需求的客户,FlowUs支持企业私有化部署服务。这意味着企业可以根据自己的需求,在本......
  • harbor搭建
    1.Harbor简介Harbor是由VMware公司开源的企业级的DockerRegistry管理项目,它包括权限管理(RBAC)、LDAP、日志审核、管理界面、自我注册、镜像复制和中文支持等功能。作为一个企业级私有Registry服务器,Harbor提供了更好的性能和安全。提升用户使用Registry构建和运行环境传......