首页 > 数据库 >MongoDB性能调优

MongoDB性能调优

时间:2024-08-01 15:27:19浏览次数:17  
标签:currentOp MongoDB 性能 db Long 查询 调优 操作

文章目录

MongoDB性能调优

MongoDB性能不佳原因

  1. 慢查询
  2. 阻塞等待
  3. 硬件资源不足

1,2通常是因为模型/索引设计不佳导致的

排查思路:按1-2-3依次排查



影响MongoDB性能的因素

processon在线图

  • 首先需要排除客户端到服务端的网络问题
  • 注意客户端与服务端 版本兼容问题

在这里插入图片描述



MongoDB性能监控工具

mongostat

下载地址:https://www.mongodb.com/try/download/database-tools

mongostat是MongoDB自带的监控工具,其可以提供数据库节点或者整个集群当前的状态视图。

在这里插入图片描述



该功能的设计非常类似于Linux系统中的vmstat命令,可以呈现出实时的状态变化。不同的是,mongostat所监视的对象是数据库进程。mongostat常用于查看当前的QPS/内存使用/连接数,以及多个分片的压力分布。mongostat采用Go语言实现,其内部使用了db.serverStatus()命令,要求执行用户需具备clusterMonitor角色权限

mongostat -h 192.168.75.100 --port 28017 -u hushang -p 123456 --authenticationDatabase=admin --discover -n 300 2

参数说明:

  • -h:指定监听的主机,分片集群模式下指定到一个mongos实例,也可以指定单个mongod,或者复制集的多个节点。
  • –port:接入的端口,如果不提供则默认为27017。
  • -u:接入用户名,等同于-user。
  • -p:接入密码,等同于-password。
  • –authenticationDatabase:鉴权数据库。
  • –discover:启用自动发现,可展示集群中所有分片节点的状态。
  • -n 300 2:表示输出300次,每次间隔2s。也可以不指定“-n 300”,此时会一直保持输出。




在这里插入图片描述

指标名说明
inserts每秒插入数
query每秒查询数
update每秒更新数
delete每秒删除数
getmore每秒getmore数
command每秒命令数,涵盖了内部的一些操作
%dirtyWiredTiger缓存中脏数据百分比
%usedWiredTiger 正在使用的缓存百分比,也就是分配给WiredTiger存储引擎的内存使用情况
flushesWiredTiger执行CheckPoint的次数
vsize虚拟内存使用量
res物理内存使用量
qrw客户端读写等待队列数量,高并发时,一般队列值会升高
arw客户端读写活跃个数
netIn网络接收数据量
netOut网络发送数据量
conn当前连接数
set所属复制集名称
repl复制节点状态(主节点/二级节点……)
time时间戳



mongostat需要关注的指标主要有如下几个:

  • 插入、删除、修改、查询的速率是否产生较大波动,是否超出预期。
  • qrw、arw:队列是否较高,若长时间大于0则说明此时读写速度较慢。
  • conn:连接数是否太多。
  • dirty:百分比是否较高,若持续高于10%则说明磁盘I/O存在瓶颈。
  • netIn、netOut:是否超过网络带宽阈值。
  • repl:状态是否异常,如PRI、SEC、RTR为正常,若出现REC等异常值则需要修复。



使用交互模式

mongostat一般采用滚动式输出,即每一个间隔后的状态数据会被追加到控制台中。从MongoDB 3.4开始增加了--interactive选项,用来实现非滚动式的监视,非常方便。

# 该命令我本机运行有问题
mongostat -h 192.168.75.100 --port 28017 -u hushang -p hushang --authenticationDatabase=admin --discover --interactive -n 2

在这里插入图片描述



mongotop

mongotop命令可用于查看数据库的热点表,通过观察mongotop的输出,可以判定是哪些集合占用了大部分读写时间。mongotop与mongostat的实现原理类似,同样需要clusterMonitor角色权限。

# 默认情况下,mongotop会持续地每秒输出当前的热点表
mongotop -h 192.168.75.100 --port=28017 -u hushang -p 123456 --authenticationDatabase=admin
# 在mongosh端 执行一些插入语句进行测试
rs0 [direct: primary] admin> for(var i = 0;i<5000;i++){db.emp.insertOne({name: "hushang"+i})}



在这里插入图片描述

指标说明:

指标名说明
ns集合名称空间
total花费在该集合上的时长
read花费在该集合上的读操作时长
write花费在该集合上的写操作时长



mongotop通常需要关注的因素主要包括:

  • **热点表操作耗费时长是否过高。**这里的时长是在一定的时间间隔内的统计值,它代表某个集合读写操作所耗费的时间总量。在业务高峰期时,核心表的读写操作一般比平时高一些,通过mongotop的输出可以对业务尖峰做出一些判断。
  • **是否存在非预期的热点表。**一些慢操作导致的性能问题可以从mongotop的结果中体现出来



mongotop的统计周期、输出总量都是可以设定的

#最多输出100次,每次间隔时间为2s
mongotop -h 192.168.75.100 --port=28017 -u hushang -p 123456 --authenticationDatabase=admin -n 100 2



Profiler模块

Profiler模块可以用来记录、分析MongoDB的详细操作日志。默认情况下该功能是关闭的,对某个业务库开启Profiler模块之后,符合条件的慢操作日志会被写入该库的system.profile集合中。

Profiler的设计很像代码的日志功能,其提供了几种调试级别:

级别说明
0日志关闭,无任何输出
1部分开启,仅符合条件(时长大于slowms)的操作日志会被记录
2日志全开,所有的操作日志都被记录



对当前的数据库开启Profiler模块:

# 将level设置为2,此时所有的操作会被记录下来。
db.setProfilingLevel(2)
#检查是否生效
db.getProfilingStatus()

在这里插入图片描述



  • was当前级别
  • slowms是慢操作的阈值,单位是毫秒;
  • sampleRate表示日志随机采样的比例,1.0则表示满足条件的全部输出。



如果希望只记录时长超过500ms的操作,则可以将level设置为1

db.setProfilingLevel(1,500)

还可以进一步设置随机采样的比例

db.setProfilingLevel(1,{slowms:500,sampleRate:0.5})



查看操作日志

开启Profiler模块之后,可以通过system.profile集合查看最近发生的操作日志

db.system.profile.find().limit(5).sort({ts:-1}).pretty()

具体操作如下

# 开启profile后手动插入一条记录
rs0 [direct: primary] test> db.emp.insertOne({username: "hushang", age: 24})
{
  acknowledged: true,
  insertedId: ObjectId("66ab0978c301fc0d4a5343e2")
}

# 在执行一次查询
rs0 [direct: primary] test> db.emp.find()

# 接下来查询profile的数据
rs0 [direct: primary] test> db.system.profile.find().limit(5)
[
  {
    op: 'insert',				# 操作类型,描述增加、删除、修改、查询。
    ns: 'test.emp',			# 名称空间,格式为{db}.{collection}。
    command: {				# 原始的命令文档。
      insert: 'emp',
      documents: [
        {
          username: 'hushang',
          age: 24,
          _id: ObjectId("66ab0978c301fc0d4a5343e2")
        }
      ],
      ordered: true,
      lsid: { id: new UUID("a7724286-4b53-43a0-a827-bec1cc00c81d") },
      txnNumber: Long("1"),
      '$clusterTime': {
        clusterTime: Timestamp({ t: 1722485085, i: 3 }),
        signature: {
          hash: Binary(Buffer.from("0000000000000000000000000000000000000000", "hex"), 0),
          keyId: Long("0")
        }
      },
      '$db': 'test'
    },
    ninserted: 1,
    keysInserted: 1,
    numYield: 0,    # 操作数,大于0表示等待锁或者是磁盘I/O操作。
    locks: {   # 锁占用的情况。
      ParallelBatchWriterMode: { acquireCount: { r: Long("3") } },
      FeatureCompatibilityVersion: { acquireCount: { r: Long("3"), w: Long("2") } },
      ReplicationStateTransition: { acquireCount: { w: Long("4") } },
      Global: { acquireCount: { r: Long("3"), w: Long("2") } },
      Database: { acquireCount: { w: Long("2") } },
      Collection: { acquireCount: { w: Long("2") } },
      Mutex: { acquireCount: { r: Long("4") } }
    },
    flowControl: { acquireCount: Long("1"), timeAcquiringMicros: Long("1") },
    readConcern: { provenance: 'implicitDefault' },
    writeConcern: { w: 2, wtimeout: 0, provenance: 'customDefault' },
    responseLength: 230,   # 响应数据大小(字节数),一次性查询太多的数据会影响性能
    protocol: 'op_msg',
    millis: 3,      	# 命令执行的时长,单位是毫秒。
    ts: ISODate("2024-08-01T04:05:12.985Z"),
    client: '127.0.0.1',
    appName: 'mongosh 1.8.0',
    allUsers: [ { user: 'hushang', db: 'admin' } ],
    user: 'hushang@admin'
  },
  {
    op: 'query',   		# 操作类型,描述增加、删除、修改、查询。
    ns: 'test.emp',		# 名称空间,格式为{db}.{collection}。
    command: {			# 原始的命令文档。
      find: 'emp',
      filter: {},
      lsid: { id: new UUID("a7724286-4b53-43a0-a827-bec1cc00c81d") },
      '$clusterTime': {
        clusterTime: Timestamp({ t: 1722485626, i: 1 }),
        signature: {
          hash: Binary(Buffer.from("0000000000000000000000000000000000000000", "hex"), 0),
          keyId: Long("0")
        }
      },
      '$db': 'test'
    },
    cursorid: Long("5929651518194517166"),		# 游标ID。
    keysExamined: 0,		# 扫描索引条目数,如果比 nreturned 大出很多,则说明查询效率不高。
    docsExamined: 101,		# 扫描文档条目数,如果比nreturned大出很多,则说明查询效率不高。
    numYield: 0,			# 操作数,大于0表示等待锁或者是磁盘I/O操作。
    nreturned: 101,			# 返回条目数。 因为我之前新增过一些数据
    queryHash: '17830885',
    queryFramework: 'classic',
    locks: {				# 锁占用的情况。
      FeatureCompatibilityVersion: { acquireCount: { r: Long("1") } },
      Global: { acquireCount: { r: Long("1") } },
      Mutex: { acquireCount: { r: Long("1") } }
    },
    flowControl: {},
    readConcern: { level: 'local', provenance: 'implicitDefault' },
    responseLength: 4976,		# 响应数据大小(字节数),一次性查询太多的数据会影响性能
    protocol: 'op_msg',
    millis: 0,				# 命令执行的时长,单位是毫秒。
    planSummary: 'COLLSCAN',		# 查询计划的概要,如IXSCAN表示使用了索引扫描。 COLLSCAN表示全表扫描
    execStats: {					# 执行过程统计信息。
      stage: 'COLLSCAN',			# 查询计划的概要,如IXSCAN表示使用了索引扫描。 COLLSCAN表示全表扫描
      nReturned: 101,			# 返回条目数。
      executionTimeMillisEstimate: 0,
      works: 102,
      advanced: 101,
      needTime: 1,
      needYield: 0,
      saveState: 1,
      restoreState: 0,
      isEOF: 0,
      direction: 'forward',
      docsExamined: 101
    },
    ts: ISODate("2024-08-01T04:14:15.763Z"),   # 命令执行的时间点。
    client: '127.0.0.1',
    appName: 'mongosh 1.8.0',
    allUsers: [ { user: 'hushang', db: 'admin' } ],
    user: 'hushang@admin'
  }
]

这里需要关注的一些字段主要如下所示:

  • op:操作类型,描述增加、删除、修改、查询。
  • ns:名称空间,格式为{db}.{collection}。
  • Command:原始的命令文档。
  • Cursorid:游标ID。
  • numYield:操作数,大于0表示等待锁或者是磁盘I/O操作。
  • nreturned:返回条目数。
  • keysExamined:扫描索引条目数,如果比nreturned大出很多,则说明查询效率不高。
  • docsExamined:扫描文档条目数,如果比nreturned大出很多,则说明查询效率不高。
  • locks:锁占用的情况。
  • storage:存储引擎层的执行信息。
  • responseLength:响应数据大小(字节数),一次性查询太多的数据会影响性能,可以使用limit、batchSize进行一些限制。
  • millis:命令执行的时长,单位是毫秒。
  • planSummary:查询计划的概要,如IXSCAN表示使用了索引扫描。
  • execStats:执行过程统计信息。
  • ts:命令执行的时间点。
# 根据这些字段,可以执行一些不同维度的查询。比如查看执行时长最大的10条操作记录
db.system.profile.find().limit(10).sort({millis:-1}).pretty()

# 查看某个集合中的update操作日志
db.system.profile.find({op:"update",ns:"test.emp"})



注意事项

  • system.profile是一个1MB的固定大小的集合,随着记录日志的增多,一些旧的记录会被滚动删除。
  • 在线上开启Profiler模块需要非常谨慎,这是因为其对MongoDB的性能影响比较大。建议按需部分开启,同时slowms的值不要设置太低。
  • sampleRate的默认值是1.0,该字段可以控制记录日志的命令数比例,但只有在MongoDB 4.0版本之后才支持。
  • Profiler模块的设置是内存级的,重启服务器后会自动恢复默认状态。



db.currentOp()

Profiler模块所记录的日志都是已经发生的事情,db.currentOp()命令则与此相反,它可以用来查看数据库当前正在执行的一些操作。

想象一下,当数据库系统的CPU发生骤增时,我们最想做的无非是快速找到问题的根源,这时db.currentOp就派上用场了。

db.currentOp()读取的是当前数据库的命令快照,该命令可以返回许多有用的信息,比如:

  • 操作的运行时长,快速发现耗时漫长的低效扫描操作。
  • 执行计划信息,用于判断是否命中了索引,或者存在锁冲突的情况。
  • 操作ID、时间、客户端等信息,方便定位出产生慢操作的源头。



opid表示当前操作在数据库进程中的唯一编号。如果已经发现该操作正在导致数据库系统响应缓慢,则可以考虑将其“杀”死

db.killOp(4001)



db.currentOp默认输出当前系统中全部活跃的操作,由于返回的结果较多,我们可以指定一些过滤条件:

# 查看等待锁的增加、删除、修改、查询操作
db.currentOp({
    waitingForLock:true,
    $or:[
        {op:{$in:["insert","update","remove"]}},
        {"query.findandmodify":{$exists:true}}
    ]
})



查看执行时间超过1s的操作

db.currentOp({
    secs_running:{$gt:1}
})



查看test数据库中的操作

db.currentOp({
    ns: /test/
})



在这里插入图片描述

在这里插入图片描述

在这里插入图片描述



对示例操作的解读如下:

(1)从ns、op字段获知,当前进行的操作正在对test.items集合执行update命令。

(2)command字段显示了其原始信息。其中,command.q和command.u分别展示了update的查询条件和更新操作。

(3)“planSummary”:“COLLSCAN” 说明情况并不乐观,update没有利用索引而是正在全表扫描。

(4)microsecs_running:NumberLong(186070)表示操作运行了186ms,注意这里的单位是微秒。

优化方向:

  • value字段加上索引
  • 如果更新的数据集非常大,要避免大范围update操作,切分成小批量的操作



currentOp命令输出说明

  • currentOp.type:操作类型,可以是op、idleSession、idleCursor的一种,一般的操作信息以op表示。其为MongoDB 4.2版本新增功能。
  • currentOp.host:主机的名称。currentOp.desc:连接描述,包含connectionId。currentOp.connectionId:客户端连接的标识符。currentOp.client:客户端主机和端口。currentOp.appName:应用名称,一般是描述客户端类型。
  • currentOp.clientMetadata:关于客户端的附加信息,可以包含驱动的版本。currentOp.currentOpTime:操作的开始时间。MongoDB 3.6版本新增功能。
  • currentOp.lsid:会话标识符。MongoDB 3.6版本新增功能。
  • currentOp.opid:操作的标志编号。
  • currentOp.active:操作是否活跃。如果是空闲状态则为false。
  • currentOp.secs_running:操作持续时间(以秒为单位)。
  • currentOp.microsecs_running:操作持续时间(以微秒为单位)。
  • currentOp.op:标识操作类型的字符串。可能的值是:“none” “update” “insert”“query”“command” “getmore” “remove” “killcursors”。其中,command操作包括大多数命令,如createIndexes和findAndModify。
  • currentOp.ns:操作目标的集合命名空间。
  • currentOp.command:操作的完整命令对象的文档。如果文档大小超过1KB,则会使用一种$truncate形式表示。
  • currentOp.planSummary:查询计划的概要信息。
  • currentOp.locks:当前操作持有锁的类型和模式。
  • currentOp.waitingForLock:是否正在等待锁。
  • currentOp.numYields:当前操作执行yield(让步)的次数。一些锁互斥或者磁盘I/O读取都会导致该值大于0。
  • currentOp.lockStats:当前操作持有锁的统计。
  • currentOp.lockStats.acquireCount:操作以指定模式获取锁的次数。
  • currentOp.lockStats.acquireWaitCount:操作获取锁等待的次数,等待是因为锁处于冲突模式。acquireWaitCount小于或等于acquireCount。
  • currentOp.lockStats.timeAcquiringMicros:操作为了获取锁所花费的累积时间(以微秒为单位)。timeAcquiringMicros除以acquireWaitCount可估算出平均锁等待时间。
  • currentOp.lockStats.deadlockCount:在等待锁获取时,操作遇到死锁的次数。

标签:currentOp,MongoDB,性能,db,Long,查询,调优,操作
From: https://blog.csdn.net/qq_44027353/article/details/140848805

相关文章

  • MongoDB两地三中心集群架构设计、全球多写集群架构设计
    文章目录高级集群架构设计两地三中心集群架构设计容灾级别两地三中心方案:复制集跨中心部署两地三中心部署的考量点两地三中心复制集搭建环境准备整体架构配置域名解析启动5个MongoDB实例初始化复制集配置选举优先级启动持续写脚本(每2秒写一条记录)测试结果总结全球多......
  • MongoDB复制集/集群搭建详解
    文章目录复制集介绍三节点复制集模式Pss模式PSA模式典型三节点复制集环境搭建注意事项搭建配置复制集复制集状态查询复制集常用命令安全认证创建用户创建keyFile文件启动mongod复制集连接方式复制集成员角色属性成员角色配置隐藏节点配置延时节点添加投票节点移除复制......
  • 关于PHP 函数性能优化的技巧
    本文由ChatMoney团队出品本文将详细介绍PHP函数性能优化的技巧。通过分析PHP函数的执行过程和性能瓶颈,提供一系列实用的优化方法,并结合代码示例,帮助读者提升PHP代码的执行效率。文章内容将涵盖变量作用域、递归算法、循环优化、内存管理等关键方面。一、理解PHP函数......
  • PHP 函数性能优化的技巧是什么?
    本文由ChatMoney团队出品本文将详细介绍PHP函数性能优化的技巧。通过分析PHP函数的执行过程和性能瓶颈,提供一系列实用的优化方法,并结合代码示例,帮助读者提升PHP代码的执行效率。文章内容将涵盖变量作用域、递归算法、循环优化、内存管理等关键方面。一、理解PHP函数......
  • 性能测试-测试指标
    1引言1.1编写目的1.2适用对象和范围2系统性能指标2.1业务指标2.1.1交易响应时间2.1.2系统处理能力2.1.3并发用户数2.1.4错误率2.2资源指标2.2.1CPU2.2.2Memory2.2.3磁盘吞吐量2.2.4网络吞吐量2.2.5内核参数2.3中间件指标2.3.1定义及解释2......
  • SSH Exporter:基于Prometheus的远程系统性能监控神器
    SSHExporterEnglish|中文介绍SSHExporter是一个基于Prometheus规范的监控工具,通过SSH协议远程收集目标服务器的系统性能数据,如CPU使用率、内存使用情况、磁盘和网络I/O等,并将这些数据暴露为Prometheus格式的metrics,以便被PrometheusServer抓取和存储。功能......
  • 安装lkp-test性能测试工具
    (参考官网)https://gitee.com/openeuler/technical-certification/blob/master/testing-tools/欧拉技术测评ISV商用软件测试工具lkp-tests用户指南.md#步骤3-执行兼容性测试从有问题的步骤开始修改:工具安装步骤6:写入环境变量exportLKP_PATH="/root/lkp-tests"测试执行步骤2:安......
  • 国内备受好评PostgreSQL数据库性能如何?
    为什么国内很多数据库采用PostgreSQL数据库作为基础,再次开发自己的产品呢?不仅仅是因为PostgreSQL数据库开源免费、PostgreSQL数据库的性能也是相当出色的,具有以下几个方面的特点:1.处理大规模数据:-能够有效地管理和处理海量的数据。例如,在大型电商网站中,面对数以百万计甚至数......
  • python高性能计算:cython入门代码
    三种实现的对比:(1)纯pythonx.pydefis_prime(num):forjinrange(2,num):if(num%j)==0:returnFalsereturnTrueimporttimea=time.time()foriinrange(10,100000):is_prime(i)b=time.time()print(b-a)(2)x2.py......
  • python高性能计算:cython使用openmp并行 —— 报错:undefined symbol: omp_get_thread_n
    test.pyx文件:fromcython.parallelcimportparallelfromopenmpcimportomp_get_thread_numcpdefvoidlong_running_task1()noexceptnogil:whileTrue:passcpdefvoidlong_running_task2()noexceptnogil:whileTrue:passdefdo......