首页 > 其他分享 >ELK日志系统

ELK日志系统

时间:2024-08-07 18:28:51浏览次数:10  
标签:ELK log 系统 192.168 nginx conf 日志 root

ELK日志系统

ELK:是一套完整的日志集中处理方案。
E:elasticsearch ES 分布式索引型非关系数据库 存储logstash 输出的日志,全文检索引擎。保存的格式json格式
L:logstash 基于Java开发的,数据收集引擎,日志的收集,可以对数据进行过滤,分析,汇总,以标准格式输出
K:Kiabana 是ES的可视化工具。对es存储的数据进行可视化展示,分析,检索

ELK架构
在这里插入图片描述

ELK F K
F:
filebeat:轻量级的开源日志文件数据搜集器。logstash占用资源比较大,属于重量级。
有了flebeat可以节省资源,可以通过filebeat和logstash实现远程数据收集。
filereat不能对数据进行标准输出,不能输出为ES格式的数据,所以需要logstasg把filebeat数据做标准化处理。

在这里插入图片描述

K:
kafka 消息队列?

192.168.11.150 es1
192.168.11.151 es2
192.168.11.152 kibana

192.168.11.150 和192.168.11.151操作安装 E L

F:\学习笔记\EKL图形化界面安装\ELK实验步骤 按照文档步骤来

1、es取主从和数据模式 node.master: true
es数据库的主从类型 true false
node.data: true
数据节点,是否保存数据,logstash发送数据,节点是否接受以及保存。
es如何创建,修改,删除数据 数据管理
通过http的方式
post方式修改数据

创建数据

curl -X PUT 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'

localhost:9200 对应的就是本地数据库的地址 ip+端口
index-demo 创建索引分片的名称
test 数据名称
1 数据的id字段
?pretty&pretty 参数设定为json格式
-d 数据的具体内容

修改数据

curl -X **POST** 'localhost:9200/index-demo/test/1/_update?pretty' -H 'Content-Type: application/json' -d '{  "doc": {    "user": "zhangsan",    "mesg": "hello1 world1"  } }'

删除数据

curl -X DELETE 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'

192.168.11.152安装日志图形化部署

收集日志文件脚本
[root@apache-elk3 conf.d]# vim syetem.conf
input{

  file{
        path =>"/var/log/messages"
        type =>"system"
        start_position =>"beginning"
 }
}
output {
    elasticsearch {
              hosts=>["192.168.11.150:9200","192.168.11.151:9200"]
              index=>"system-%{+YYYY.MM.dd}"
 }
}
[root@apache-elk3 conf.d]# pwd
/etc/logstash/conf.d
[root@apache-elk3 conf.d]# logstash -f system.conf --path.data /opt/test2 &    #开始日志收集 
#输入之后等一会 会出现成功标志
[root@apache-elk3 opt]#cd /opt/
[root@apache-elk3 opt]#rpm -ivh kibana-6.7.2-x86_64.rpm
[root@apache-elk3 conf.d]# vim /etc/kibana/kibana.yml
 2 server.port: 5601
 7 server.host: "0.0.0.0"
 28 elasticsearch.hosts: ["http://192.168.11.150:9200","http://192.168.11.151:9200"]
 37 kibana.index: ".kibana"
 96 logging.dest: /var/log/kibana.log
 113 i18n.locale: "zh-CN"
[root@apache-elk3 opt]#  systemctl restart kibana.service 
[root@apache-elk3 opt]#  systemctl enable  kibana.service 
[root@apache-elk3 opt]#  netstat -antp | grep 5601
[root@apache-elk3 opt]# chmod 777 /var/log/messages

浏览器访问:192.168.11.152:5601
http日志收集
[root@apache-elk3 conf.d]# pwd
/etc/logstash/conf.d
[root@apache-elk3 conf.d]# vim http.conf
input {

      file{
           path => "/etc/httpd/logs/access_log"
           type => "access"
           start_position => "beginning"
          }
      file{
           path => "/etc/httpd/logs/error_log"
           type => "error"
           start_position => "beginning"
          }
}
output {
        if [type] == "access" {

          elasticsearch{
                  hosts=>["192.168.11.150:9200","192.168.11.151:9200"]
                  index=> "apache_access-%{+YYYY.MM.dd}"
        }
   }
            if [type] == "error" {

          elasticsearch{
                  hosts=>["192.168.11.150:9200","192.168.11.151:9200"]
                  index=> "apache_error-%{+YYYY.MM.dd}"
                       }
   }
[root@apache-elk3 conf.d]# logstash -f http.conf --path.data /opt/test5 &
API接口:

软件内部代码之间通信的接口 代码的连接 代码之间调用的接口
端口是对外提供访问程序的内容结构

filebeat:
作用:1、可以在本机收集日志
2、远程收集日志
3、轻量级的日志收集系统,可以在非Java环境运行
logstash占用资源比较大,属于重量级,需要再jvm运行,消耗资源大启动-个logstash要消耗500M左右的内存

192.168.11.137 nginx

[root@test2 opt]# cd /usr/local/filebeat/
[root@test2 filebeat]# cp filebeat.yml filebeat.yml.bak
[root@test2 filebeat]# vim filebeat.yml   ##发
 21 - type: log
 22   enabled: true
 23   paths:
 24     - /usr/local/nginx/logs/access.log
 25     - /usr/local/nginx/logs/error.log
  26 #开启日志收集,以及确定日志文本路径,指定标签和发送到目标主机的logstash
 27   tags: ["nginx"]
 28   fields:
 29     service_name: 192.168.11.137_nginx
 30     log_type: nginx
 31     from: 192.168.11.137
 
150 #output.elasticsearch:
151   # Array of hosts to connect to.
152 #  hosts: ["localhost:9200"]
162 #----------------------------- Logstash output --------------------------------
163 output.logstash:
164   # The Logstash hosts
165   hosts: ["192.168.11.152:5045"]   #5044  logstash默认的端口,只要会死logstash主机上没有占用的端口可以使用。大于1024

[root@test2 filebeat]# nohup ./filebeat -e -c filebeat.yml > filebeat.out &
-e  输出到标准输出
-c  指定配置文件
nohup:在系统的后台运行,不会因为终端的关闭导致程序停止运行,可以把运行的日志保存到指定文件

192.168.11.152

nginx_137.conf
input {
   beats { port => "5045"}
}
output {
      if "nginx" in [tags] {
        elasticsearch  {
               hosts=>["192.168.11.150:9200","192.168.11.151:9200"]
               index=> "%{[fields][service_name]}-%{+YYYY.MM.dd}"
          }
   }
}

[root@apache-elk3 conf.d]# logstash -f nginx_137.conf --path.data /opt/test6 &
[2] 60608

修改nginx默认访问端口
nginx 8888
httpd:80
mysql:3306

mysql日志路径: general_log_file=/usr/local/mysql/data/mysql_general.log
nginx 日志路径:     - /usr/local/nginx/logs/access.log
                    - /usr/local/nginx/logs/error.log

httpd日志路径: /var/log/httpd/access_log
               /var/log/httpd/access_log

[root@myslq4 nginx]# vim /etc/nginx/nginx.conf
 38     server {
 39         listen       8888;
 40         listen       [::]:8888;
 41         server_name  _;
 42         root         /usr/share/nginx/html;
 [root@myslq4 nginx]# netstat -antp | grep nginx
tcp        0      0 0.0.0.0:8888            0.0.0.0:*               LISTEN      30416/nginx: master 
tcp6       0      0 :::8888                 :::*                    LISTEN      30416/nginx: master 

tstat -antp | grep nginx
tcp 0 0 0.0.0.0:8888 0.0.0.0:* LISTEN 30416/nginx: master
tcp6 0 0 :::8888 ::

标签:ELK,log,系统,192.168,nginx,conf,日志,root
From: https://blog.csdn.net/qq_52448810/article/details/140929689

相关文章

  • ELK Elasticsearch 集群部署
    ELKElasticsearch集群部署数据流向:1、后台服务器产生的日志由filebeat收集通过logstasg进行标准化处理,传输给es1、es2(两个是一个主备的关系,数据都是一致的),然后传输给可视化设备。有了flebeat可以节省资源,可以通过filebeat和logstash实现远程数据收集。filereat不能......
  • ceph分布式存储系统
    cephceph是一个开源的,用c++语言编写的分布式的存储系统,存储文件数据。lvm逻辑卷可以扩容raid磁盘阵列高可用基于物理意义上的存储系统分布式就是多台物理磁盘组成的一个集群,在这个基础之后实现高可用,扩展特点:1、远程访问2、多个服务器组成的虚拟硬盘3、分布式......
  • 前端国际化自动工具 - 国际化文案配置系统
    背景笔者之前所在的公司主要做东南亚和欧洲一些国家的业务,做的是Web后台管理系统,项目被不同国家(有的项目多达七八个国家)的客户使用,所以前端项目需要支持多语言展示,也就是适配国际化。日常编码中,系统需要接入前端web国际化插件,vue项目使用的是vue-i18n,而react项目......
  • Springboot计算机毕业设计大学生请假系统(程序+源码+数据库+调试部署+开发环境)
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表学生,教师,学院,专业,班级,请假信息,请假条,销假信息,公告信息,出勤率开题报告内容一、选题背景与意义随着高等教育的普及和学生数量的不断增加,传统的学生请假......
  • Springboot计算机毕业设计大学生档案管理系统-程序+源码
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表学生,教师,学生档案,班级成绩单,登记表,个人荣誉开题报告内容一、研究背景与意义研究背景:随着高等教育的发展,大学生人数的不断增加,学生档案信息的数量急剧增长......
  • Linux系统安装ComfyUI
    环境:Ubuntu22.04.1LTS+  NVIDIAGeForceRTX3090一、安装显卡驱动 访问NVIDIA官方网站(https://developer.nvidia.com/cuda-downloads)获取对应安装命令https://developer.nvidia.com/cuda-downloads安装完成后执行nvidia-smi检测安装是否成功二、安装Miniconda......
  • 将iap的接收升级数据部分移植到freertos系统中
    目录前言二、移植过程1.在任务中添加代码三、遇到的问题1.boot跳转卡死在TIM6的中断使能2.代码进入app后却卡死在boot的.s文件的B.处总结前言        在完成基于TCP服务器的iap裸机程序后得到一个新的任务,该任务让我把iap中通过TCP接收数据的代码移植......
  • JSP个人博客管理系统4n8ge(程序+源码+数据库+调试部署+开发环境)
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表系统功能:用户,日志信息,个人相册,标签分类,登录签到,积分充值技术要求:    开发语言:JSP前端使用:HTML5,CSS,JSP动态网页技术后端使用SpringBoot,Spring技......
  • 操作系统--知识点
    操作系统1.1_1操作系统的概念、功能和目标作为用户和计算机硬件之间的接口提供的功能命令接口(联机命令接口|脱机命令接口)程序接口GUI(图形用户界面win|ios|andrio)目标方便用户使用1.1_2操作系统的特征并发|并行并发:多个事件交替发生(宏观同时发生、微观交替进行)并行:多......
  • python+flask计算机毕业设计智慧养老系统(程序+开题+论文)
    本系统(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。系统程序文件列表开题报告内容研究背景随着社会的快速发展和人口老龄化的加剧,智慧养老成为了社会关注的焦点。传统的养老模式已难以满足老年人日益增长的多元化需求,而智慧养老系......