首页 > 其他分享 >小体量系统的日志收集

小体量系统的日志收集

时间:2024-03-20 09:22:33浏览次数:25  
标签:http 收集 upstream request 体量 time remote 日志

最近客户有个新需求,就是想查看网站的访问情况。由于网站没有做google的统计和百度的统计,所以访问情况,只能通过日志查看,通过脚本的形式给客户导出也不太实际,给客户写个简单的页面,咱也做不到。

 

成熟的日志解决方案,那就是ELK,还有现在比较火的Loki,(当然还有很多其他解决方案,比如Splunk、Datadog等),那我们这个小网站,小体量,必然是选择Loki来做。

 

所以这次就采用Nginx+Promtail+Loki+Grafana来做一个简单的Nginx日志展示。

 

图片

 

Nginx的安装不多说,Promtail和Loki都选用二进制的方式进行安装,直接下载对应版本的二进制文件,解压后指定配置文件启动即可。

 

其中promtail配置文件如下配置:

 

server:  http_listen_port: 9080  grpc_listen_port: 0
positions: filename: /tmp/positions.yaml
clients: - url: http://localhost:3100/loki/api/v1/push
scrape_configs:- job_name: nginx pipeline_stages: - replace: expression: '(?:[0-9]{1,3}\.){3}([0-9]{1,3})' replace: '***' static_configs: - targets: - localhost labels: job: nginx_access_log host: expatsxxxxs agent: promtail __path__: /var/log/nginx/expatshxxxxs.access.log

 

日志收集工作完成后,在Nginx中,需要修改日志格式,修改Nginx的日志格式为Json格式,配置如下:

 

log_format json_analytics escape=json '{'                            '"msec": "$msec", ' # request unixtime in seconds with a milliseconds resolution                            '"connection": "$connection", ' # connection serial number                            '"connection_requests": "$connection_requests", ' # number of requests made in connection                    '"pid": "$pid", ' # process pid                    '"request_id": "$request_id", ' # the unique request id                    '"request_length": "$request_length", ' # request length (including headers and body)                    '"remote_addr": "$remote_addr", ' # client IP                    '"remote_user": "$remote_user", ' # client HTTP username                    '"remote_port": "$remote_port", ' # client port                    '"time_local": "$time_local", '                    '"time_iso8601": "$time_iso8601", ' # local time in the ISO 8601 standard format                    '"request": "$request", ' # full path no arguments if the request                    '"request_uri": "$request_uri", ' # full path and arguments if the request                    '"args": "$args", ' # args                    '"status": "$status", ' # response status code                    '"body_bytes_sent": "$body_bytes_sent", ' # the number of body bytes exclude headers sent to a client                    '"bytes_sent": "$bytes_sent", ' # the number of bytes sent to a client                    '"http_referer": "$http_referer", ' # HTTP referer                    '"http_user_agent": "$http_user_agent", ' # user agent                    '"http_x_forwarded_for": "$http_x_forwarded_for", ' # http_x_forwarded_for                    '"http_host": "$http_host", ' # the request Host: header                    '"server_name": "$server_name", ' # the name of the vhost serving the request                    '"request_time": "$request_time", ' # request processing time in seconds with msec resolution                    '"upstream": "$upstream_addr", ' # upstream backend server for proxied requests                    '"upstream_connect_time": "$upstream_connect_time", ' # upstream handshake time incl. TLS                    '"upstream_header_time": "$upstream_header_time", ' # time spent receiving upstream headers                    '"upstream_response_time": "$upstream_response_time", ' # time spend receiving upstream body                    '"upstream_response_length": "$upstream_response_length", ' # upstream response length                    '"upstream_cache_status": "$upstream_cache_status", ' # cache HIT/MISS where applicable                    '"ssl_protocol": "$ssl_protocol", ' # TLS protocol                    '"ssl_cipher": "$ssl_cipher", ' # TLS cipher                    '"scheme": "$scheme", ' # http or https                    '"request_method": "$request_method", ' # request method                    '"server_protocol": "$server_protocol", ' # request protocol, like HTTP/1.1 or HTTP/2.0                    '"pipe": "$pipe", ' # "p" if request was pipelined, "." otherwise                    '"gzip_ratio": "$gzip_ratio", '                    '"http_cf_ray": "$http_cf_ray",'                    '"geoip_country_code": "$geoip_country_code"'                    '}';

 

配置文件中,需要注意的是geoip的配置,需要在nginx中添加geoip模块。

 

首先通过yum安装geoip及lib库:

 

yum -y install GeoIP GeoIP-data GeoIP-devel

 

之后,重新编译Nginx,通过--with-http_geoip_module添加nginx的geoip模块。

 

编译完成后,在objs目录下生成新的Nginx可执行文件,替换原先的,通过kill -USR2信号,升级Nginx。

 

此时配置的log_format不会再报错geoip指令找不到,配置完成后,配置网站的access日志,引用刚才配置的json格式的log_format。

 

查看此时的日志格式:

 

{"msec": "1633430998.322", "connection": "4", "connection_requests": "1", "pid": "29887", "request_id": "40770fec38c2e5a68714df5f7a67283d", "request_length": "392", "remote_addr": "106.19.96.55", "remote_user": "", "remote_port": "43746", "time_local": "05/Oct/2021:18:49:58 +0800", "time_iso8601": "2021-10-05T18:49:58+08:00", "request": "GET / HTTP/2.0", "request_uri": "/", "args": "", "status": "200", "body_bytes_sent": "60949", "bytes_sent": "61222", "http_referer": "https://cn.bing.com/search?q=expat+tourism+agent+in+china&go=Search&qs=n&form=QBRE&sp=-1&pq=expat+tourism+agent+in+chi&sc=0-26&sk=&cvid=8BD2D4B79B3A4FA682571CB5BC7334D4", "http_user_agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 13_6 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.1.2 Mobile/15E148 Safari/604.1", "http_x_forwarded_for": "", "http_host": "www.expatsholidays.com", "server_name": "www.expatsholidays.com", "request_time": "0.003", "upstream": "127.0.0.1:9000", "upstream_connect_time": "0.000", "upstream_header_time": "0.002", "upstream_response_time": "0.002", "upstream_response_length": "60991", "upstream_cache_status": "", "ssl_protocol": "TLSv1.2", "ssl_cipher": "ECDHE-RSA-AES128-GCM-SHA256", "scheme": "https", "request_method": "GET", "server_protocol": "HTTP/2.0", "pipe": ".", "gzip_ratio": "", "http_cf_ray": "","geoip_country_code": ""}{"msec": "1633430998.709", "connection": "4", "connection_requests": "2", "pid": "29887", "request_id": "430fd53a457ea580c47e9b055da2b4d0", "request_length": "56", "remote_addr": "106.19.96.55", "remote_user": "", "remote_port": "43746", "time_local": "05/Oct/2021:18:49:58 +0800", "time_iso8601": "2021-10-05T18:49:58+08:00", "request": "GET /maps/api/js?ver=5.6.1 HTTP/2.0", "request_uri": "/maps/api/js?ver=5.6.1", "args": "ver=5.6.1", "status": "200", "body_bytes_sent": "41262", "bytes_sent": "41406", "http_referer": "https://www.expatsholidays.com/", "http_user_agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 13_6 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/13.1.2 Mobile/15E148 Safari/604.1", "http_x_forwarded_for": "", "http_host": "www.expatsholidays.com", "server_name": "www.expatsholidays.com", "request_time": "0.000", "upstream": "", "upstream_connect_time": "", "upstream_header_time": "", "upstream_response_time": "", "upstream_response_length": "", "upstream_cache_status": "", "ssl_protocol": "TLSv1.2", "ssl_cipher": "ECDHE-RSA-AES128-GCM-SHA256", "scheme": "https", "request_method": "GET", "server_protocol": "HTTP/2.0", "pipe": ".", "gzip_ratio": "3.06", "http_cf_ray": "","geoip_country_code": ""}

 

已经转为JSON格式,接着安装grafana,最快捷的方式,通过docker直接起一个:

 

docker run -d -p 3000:3000 grafana/grafana

 

启动后,通过admin/admin默认用户名密码登录,登陆后提示重置密码,之后进入grafana界面。

 

我们直接添加数据源loki:

 

图片

 

先通过explore查询,日志是否存入loki。

 

图片

 

可以看到,日志已经存入loki。

 

接着添加Dashboard,通过ID导入。

 

图片

 

导入如下:

 

图片

 

图片

 

可以看到,这里地图没展示,缺少grafana-worldmap-panel插件,我们装一下,通过命令行:

 

grafana-cli plugins install grafana-worldmap-panel

 

安装完成后,重启grafana,重新查看dashboard。

 

图片

 

地图可以展示,这里因为地图的地址是国外的地址,所以地图的图片无法加载,可以通过反代的方式解决。

 

ok,今天内容就这些,通过简单快速的方式,为客户呈现网站的详细访问情况,Loki+Grafana是绝佳的组合。

 

作者丨李俊鹏来源丨cloud.tencent.com/developer/article/2115373

dbaplus社群欢迎广大技术人员投稿,投稿邮箱:[email protected]

标签:http,收集,upstream,request,体量,time,remote,日志
From: https://www.cnblogs.com/testzcy/p/18084437

相关文章

  • 【APIM】Azure API Management Self-Host Gateway是否可以把请求的日志发送到Applicat
    问题描述AzureAPIManagementSelf-HostGateway是否可以把请求的日志发送到ApplicationInsights呢?让它和使用Azure上托管的Gateway一样呢?这是在APIM门户上配置API,设置的DiagnosticsLogs,当选择ApplicationInsights时,就可以把对接口请求时候所携带的Header/Body等信息发送......
  • nicelog--强大的Java日志组件,排查问题的利器
    ​ nicelog是一个功能强大的Java日志组件,它可以自动、手动收集日志,并通过traceId将日志关联起来,可极大提高排查问题的速度。官网:https://www.yuque.com/knifeblade/opensource/niceloggitee:https://gitee.com/knifeedge/niceloggithub:https://github.com/knife-blade/nicelog......
  • 信息收集模块(四)masscan介绍和使用教程
    一、masscan介绍    masscan是号称最快的互联网的端口扫描工具,最快几分钟就可以扫描完毕    但是他和nmap比较内饰但是masscan更加灵活,它允许自定义任意的地址范和端口范围。 二、masscan工具的命令使用        IP地址范围,有三种有效格式,1、......
  • 使用Python爬取豆瓣电影影评:从数据收集到情感分析
    简介在当今数字化时代,对电影的评价和反馈在很大程度上影响着人们的选择。豆瓣作为一个知名的电影评价平台,汇集了大量用户对电影的评论和评分。本文将介绍如何使用Python编写爬虫来获取豆瓣电影的影评数据,并通过情感分析对评论进行简单的情感评价。环境准备在开始之前,我们需要......
  • linux-实现日志分析--python
    linux-实现日志分析--python涉及到的主要python包和系统命令:1.datetime#用于处理时间2.subprocess#用于调用命令行工具3.tail-flogFile#获取logFile新增内容废话不多说,下面说一下场景需求和具体解决方案。1.[场景需求]一个区块链项目,在项目测试过程中,通过日志发......
  • Mysql之日志
    一、日志类型MySQL中的日志主要分为两种类型:Server层的日志和引擎层的日志(引擎层日志本文主要介绍InnoDB引擎日志)Server层日志ErrorLog(错误日志):记录MySQLServer运行时出现的错误和警告。BinaryLog(二进制日志):记录了MySQLServer层执行的所有修改操作。RelayLog(中继......
  • .Net Core微服务 - Seq 日志聚合
    Seq简介Seq是一款使用现代化技术构建的结构化日志存储,查询,分析工具。比起ELK这种组合要轻量级许多。只需要一个安装包就具有数据存储,查询,图表分析功能。它对windows友好,直接提供了安装包。当然也可以使用docker来部署。Seq对于单个用户是免费的,这对于一些小团队并没有什......
  • .Net Core微服务 - Serilog+Seq记录日志
    Serilog介绍Serilog是用于.NET应用程序的诊断日志记录库。它易于设置,具有干净的API,并且可以在所有最新的.NET平台上运行。Serilog通过NuGet分发,项目包括一个Seirlog核心项目Seirlog和很多接收器sinks(超过100个),这些接收是通过插件的方式来实现将日志写入到各种终端、文件......
  • 玄剑域盾云网络安全工具盒更新日志
    时间更新日志开发者内容2024-03-17玄剑域盾更新gh0stkylin20:43分更新玄剑改名为玄剑域盾主框架新增加了一个xdb打包windows资源工具,你可以分享给博主进行官方网站和云端共享你的资源,修复加载器出现无法加载窗口造成错误代码的BUG问题2024-03-17玄剑更新日志gh0stkyl......
  • Vue2(五):收集表单数据、过滤器、自定义指令、Vue的生命周期
    一、收集表单数据爱好:学习<inputtype="checkbox"value="study"v-model="hobby">打游戏<inputtype="checkbox"value="games"v-model="hobby">吃饭<inputtype="checkbo......