首页 > 数据库 >聊聊数据库连接池 Druid

聊聊数据库连接池 Druid

时间:2023-12-09 10:22:59浏览次数:48  
标签:创建 数据库 Druid 空闲 聊聊 数据源 连接 连接池

在 Spring Boot 项目中,数据库连接池已经成为标配,然而,我曾经遇到过不少连接池异常导致业务错误的事故。很多经验丰富的工程师也可能不小心在这方面出现问题。

在这篇文章中,我们将探讨数据库连接池,深入解析其实现机制,以便更好地理解和规避潜在的风险。

1 为什么需要连接池

假如没有连接池,我们操作数据库的流程如下:

  1. 应用程序使用数据库驱动建立和数据库的 TCP 连接 ;
  2. 用户进行身份验证 ;
  3. 身份验证通过,应用进行读写数据库操作 ;
  4. 操作结束后,关闭 TCP 连接 。

创建数据库连接是一个比较昂贵的操作,若同时有几百人甚至几千人在线,频繁地进行连接操作将占用更多的系统资源,但数据库支持的连接数是有限的,创建大量的连接可能会导致数据库僵死。

当我们有了连接池,应用程序启动时就预先建立多个数据库连接对象,然后将连接对象保存到连接池中。当客户请求到来时,从池中取出一个连接对象为客户服务。当请求完成时,客户程序调用关闭方法,将连接对象放回池中。

相比之下,连接池的优点显而易见:

1、资源重用:

因为数据库连接可以重用,避免了频繁创建,释放连接引起的大量性能开销,同时也增加了系统运行环境的平稳性。

2、提高性能

当业务请求时,因为数据库连接在初始化时已经被创建,可以立即使用,而不需要等待连接的建立,减少了响应时间。

3、优化资源分配

对于多应用共享同一数据库的系统而言,可在应用层通过数据库连接池的配置,实现某一应用最大可用数据库连接数的限制,避免某一应用独占所有的数据库资源。

4、连接管理

数据库连接池实现中,可根据预先的占用超时设定,强制回收被占用连接,从而避免了常规数据库连接操作中可能出现的资源泄露。

2 JDBC 连接池

下面的代码展示了 JDBC 操作数据库的流程 :

//1. 连接到数据库
Connection connection = DriverManager.getConnection(jdbcUrl, username, password);
//2. 执行SQL查询
String sqlQuery = "SELECT * FROM mytable WHERE column1 = ?";
PreparedStatement preparedStatement = connection.prepareStatement(sqlQuery);
preparedStatement.setString(1, "somevalue");
resultSet = preparedStatement.executeQuery();
//3. 处理查询结果
while (resultSet.next()) {
    int column1Value = resultSet.getInt("column1");
    String column2Value = resultSet.getString("column2");
    System.out.println("Column1: " + column1Value + ", Column2: " + column2Value);
}
//4. 关闭资源
resultSet.close();
preparedStatement.close();
connection.close();

上面的方式会频繁的创建数据库连接,在比较久远的 JSP 页面中会偶尔使用,现在普遍使用 JDBC 连接池。

JDBC 连接池有一个标准的数据源接口javax.sql.DataSource,这个类位于 Java 标准库中。

public interface DataSource  extends CommonDataSource, Wrapper {

  Connection getConnection() throws SQLException;

  Connection getConnection(String username, String password) throws SQLException;
}

常用的 JDBC 连接池有:

  • HikariCP
  • C3P0
  • Druid

Druid(阿里巴巴数据库连接池)是一个开源的数据库连接池库,它提供了强大的数据库连接池管理和监控功能。

1、配置Druid数据源

DruidDataSource dataSource = new DruidDataSource();
dataSource.setUrl("jdbc:mysql://localhost:3306/mydatabase");
dataSource.setUsername("yourusername");
dataSource.setPassword("yourpassword");
dataSource.setInitialSize(5); // 初始连接池大小
dataSource.setMinIdle(5); // 最小空闲连接数
dataSource.setMaxActive(20); // 最大活动连接数
dataSource.setValidationQuery("select 1 from dual");  // 心跳的 Query
dataSource.setMaxWait(60000); // 最大等待时间
dataSource.setTestOnBorrow(true); // 验证连接是否有效

2、使用数据库连接

Connection connection = dataSource.getConnection();
//使用连接执行数据库操作
// TODO 业务操作
// 使用后关闭连接连接
connection.close();

3、关闭数据源

dataSource.close();

3 连接池 Druid 实现原理

我们学习数据源的实现,可以从如下五个核心角度分析:

  • 初始化
  • 创建连接
  • 回收连接
  • 归还连接
  • 销毁连接

3.1 初始化

首先我们查看数据源实现「获取连接」的接口截图,初始化可以主动被动两种方式。

主从是指显示的调用 init 方法,而

调用getConnection方法时,返回的对象是连接接口的封装类 DruidConnectionHolder

在初始化方法内,数据源创建三个连接池数组 。

  • connections:用于存放能获取的连接对象。

  • evictConnections:用于存放需要丢弃的连接对象。

  • keepAliveConnections:用于存放需要保活的连接对象。

初始化阶段,需要进行连接池的预热:也就是需要按照配置首先创建一定数量的连接,并放入到池子里,这样应用在需要获取连接的候,可以直接从池子里获取。

数据源「预热」分为同步异步两种方式 ,见下图:

从上图,我们可以看到同步创建连接时,是原生 JDBC 创建连接后,直接放入到 connections 数组对象里。

异步创建线程需要初始化 createScheduler , 但默认并没有配置。

数据源预热之后,启动了两个任务线程:创建连接销毁连接

3.2 创建连接

这一节,我们重点学习 Druid 数据源如何创建连接

CreateConnectionThread 本质是一个单线程在死循环中通过 condition 等待,被其他线程唤醒 ,并实现创建数据库连接逻辑。

笔者将 run 方法做了适当简化,当满足了条件之后,才创建数据库连接 :

  • 必须存在线程等待,才创建连接
  • 防止创建超过最大连接数 maxAcitve

创建完连接对象 PhysicalConnectionInfo 之后,需要保存到 Connections 数组里,并唤醒到其他的线程,这样就可以从池子里获取连接。

3.3 获取连接

我们详细解析了创建连接的过程,接下来就是应用如何获取连接的过程。

DruidDataSource#getConnection 方法会调用到 DruidDataSource#getConnectionDirect 方法来获取连接,实现如下所示。

核心流程是

1、在 for 循环内,首先调用 getConnectionDirect内,调用getConnectionInternal 从池子里获取连接对象;

2、获取连接后,需要根据 testOnBorrowtestWhileIdle 参数配置判断是否需要检测连接的有效性;

3、最后假如需要判断连接是否有泄露,则配置 removeAbandoned 来关闭长时间不适用的连接,该功能不建议再生产环境中使用,仅用于连接泄露检测诊断。

接下来进入获取连接的重点:getConnectionInternal 方法如何从池子里获取连接。

getConnectionInternal()方法中拿到连接的方式有三种:

  1. 直接创建连接(默认配置不会执行)

    需要配置定时线程池 createScheduler,当连接池已经没有可用连接,且当前借出的连接数未达到允许的最大连接数,且当前没有其它线程在创建连接 ;

  2. pollLast 方法:从池中拿连接,并最多等待 maxWait 的时间,需要设置了maxWait

pollLast 方法的核心是:死循环内部,通过 Condition 对象 notEmpty 的 awaitNanos 方法执行等待,若池子中有连接,将最后一个连接取出,并将最后一个数组元素置为空。

  1. takeLast 方法:从池中拿连接,并一直等待直到拿到连接。

和 pollLast 方法不同,首先方法体内部并没有死循环,通过 Condition 对象 notEmpty 的 await 方法等待,直到池子中有连接,将最后一个连接取出,并将最后一个数组元素置为空。

3.4 归还连接

DruidDataSource 连接池中,每一个物理连接都会被包装成DruidConnectionHolder,在提供给应用线程前,还会将 DruidConnectionHolder 包装成 DruidPooledConnection

原生的 JDBC 操作, 每次执行完业务操作之后,会执行关闭连接,对于连接池来讲,就是归还连接,也就是将连接放回连接池

下图展示了 DruidPooledConnectionclose 方法 :

在关闭方法中,我们重点关注 recycle 回收连接方法。

我们可以简单的理解:将连接放到 connections 数组的 poolingCount 位置,并将其自增,然后通过 Condition 对象 notEmpty 唤醒等待获取连接的一个应用程序。

3.5 销毁连接

DruidDataSource 连接的销毁 DestroyConnectionThread 线程完成 :

从定时任务(死循环)每隔 timeBetweenEvictionRunsMillis 执行一次,我们重点关注destroyTaskrun方法。

destroyTaskrun方法 会调用DruidDataSource#shrink方法来根据设定的条件来判断出需要销毁和保活的连接。

核心流程:

1、遍历连接池数组 connections

​ 内部分别判断这些连接是需要销毁还是需要保活 ,并分别加入到对应的容器数组里。

2、销毁场景

  • 空闲时间idleMillis >= 允许的最小空闲时间 minEvictableIdleTimeMillis
  • 空闲时间idleMillis >= 允许的最大空闲时间 maxEvictableIdleTimeMillis

3、保活场景

  • 发生了致命错误(onFatalError == true)且致命错误发生时间(lastFatalErrorTimeMillis)在连接建立时间之后
  • 如果开启了保活机制,且连接空闲时间大于等于了保活间隔时间

4、销毁连接

​ 遍历数组 evictConnections 所有的连接,并逐一销毁 。

5、保活连接

​ 遍历数组 keepAliveConnections 所有的连接,对连接进行验证 ,验证失败,则关闭连接,否则加锁,重新加入到连接池中。

4 保证连接有效

本节,我们讲解如何合理的配置参数保证数据库连接有效。

很多同学都会遇到一个问题:“长时间不进行数据库读写操作之后,第一次请求数据库,数据库会报错,但第二次就正常了。"

那是因为数据库为了节省资源,会关闭掉长期没有读写的连接

笔者第一次使用 Druid 时就遇到过这样的问题,有兴趣的同学可以看看笔者这篇文章:

https://www.javayong.cn/codelife/runningforcode.html

下图展示了 Druid 数据源配置样例:

我们简单梳理下 Druid 的保证连接有效有哪些策略:

1、销毁连接线程定时检测所有的连接,关闭空闲时间过大的连接 ,假如配置了保活参数,那么会继续维护待保活的连接;

2、应用每次从数据源中获取连接时候,会根据testOnBorrowtestWhileIdle参数检测连接的有效性。

因此,我们需要重点配置如下的参数:

A、timeBetweenEvictionRunsMillis 参数:间隔多久检测一次空闲连接是否有效。

B、testWhileIdle 参数:启空闲连接的检测,强烈建议设置为 true 。

C、minEvictableIdleTimeMillis 参数:连接池中连接最大空闲时间(毫秒),连接数 > minIdle && 空闲时间 > minEvictableIdleTimeMillis 。

D、maxEvictableIdleTimeMillis 参数:连接池中连接最大空闲时间,空闲时间 > maxEvictableIdleTimeMillis,不管连接池中的连接数是否小于最小连接数 。

E、testOnBorrow 参数:开启连接的检测,获取连接时检测是否有效,假如设置为 true ,可以最大程度的保证连接的可靠性,但性能会变很差 。

笔者建议在配置这些参数时,和 DBA、架构师做好提前沟通,每个公司的数据库配置策略并不相同,假如数据库配置连接存活时间很短,那么就需要适当减少空闲连接检测间隔,并调低最大和最小空闲时间。

5 总结

这篇文章,笔者整理了数据库连接池的知识点。

1、连接池的优点:资源重用、提高性能、优化资源分配、连接管理;

2、JDBC 连接池:实现数据源接口javax.sql.DataSource,这个类位于 Java 标准库;

3、连接池 Druid 实现原理

  • 核心方法:初始化、创建连接、获取连接、归还连接、销毁连接。
  • 存储容器:连接池数组、销毁连接数组、保活连接数组。
  • 线程模型:独立的创建连接线程和销毁连接线程。
  • 锁机制:在创建连接、获取连接时,都会加锁,通过两个 Condition 对象 emptynotEmpty 分别控制创建连接线程和获取连接线程的等待和唤醒。

数据库连接池、线程池都是对象池的思想。对象池是一种设计模式,用于管理可重复使用的对象,以减少对象的创建和销毁开销。

笔者会在接下来的文章里为大家详解:

  1. 如何使用池化框架 Commons Pool
  2. Netty 如何实现简单的连接池。

参考文章:

https://segmentfault.com/a/1190000043208041

https://blog.csdn.net/weixin_43790613/article/details/133940617

https://blog.csdn.net/yaomingyang/article/details/123145662


如果我的文章对你有所帮助,还请帮忙点赞、在看、转发一下,你的支持会激励我输出更高质量的文章,非常感谢!

标签:创建,数据库,Druid,空闲,聊聊,数据源,连接,连接池
From: https://www.cnblogs.com/makemylife/p/17889584.html

相关文章

  • Druid数据源连接池
    配置缺省值说明name 配置这个属性的意义在于,如果存在多个数据源,监控的时候可以通过名字来区分开来。如果没有配置,将会生成一个名字,格式是:"DataSource-"+System.identityHashCode(this).另外配置此属性至少在1.0.5版本中是不起作用的,强行设置name会出错。详情-点此处......
  • MySQL服务器8核32G max_connections设置为10000的情况,springboot里面的Druid参数配置
    MySQL服务器8核32Gmax_connections设置为10000的情况,springboot里面的Druid参数配置多少合适啊,MySQL服务器8核32G,max_connections设置为10000,确实是相当大的一个配置啊。对于Druid的参数配置,得看你系统的具体情况。一般来说,你可以考虑以下几个参数:initialSize:连接池的初始大小,你......
  • 聊聊如何为python程序 debug
    开始调试之前摆正心态一、调理论的简单介绍1、调试理论“软件”的两层含义·人类需求在信息世界的投影    理解错需求→bug·计算过程的精确(数学)描述     实现错误→bug2、调试困难的根本原因因为bug的触发经历了漫长的过程·需求→设计→代码(状态机)→F......
  • [Ngbatis源码学习]Ngbatis源码阅读之连接池的创建
    Ngbatis源码阅读之连接池的创建1.NebulaPool的创建NgbatisBeanFactoryPostProcessor这个类实现了BeanFactoryPostProcessor后置处理器,Ngbatis连接池的创建就在postProcessBeanFactory中实现。关于BeanFactoryPostProcessor的有关内容可以参考上一篇文章。首先来看org......
  • 聊聊大数据框架的数据更新策略: COW,MOR,MOW
    大数据框架下,常用的数据更新策略有三种:COW:copy-on-write,写时复制;MOR:merge-on-read,读时合并;MOW:merge-on-write,写时合并;hudi等数据湖仓框架,常用的是前两种实现数据更新。而Doris则主要用后两种更新数据。COW在数据写入的时候,复制一份原来的拷贝,在其基础上添加......
  • java_JDBC连接池C3P0的使用
    1、数据库连接池基本介绍1.预先再缓冲池中放入一定数量的连接,当需要建立连接时,只需要从“缓冲池”中取出一个,使用完毕后放回。2.数据库连接池负责分配、管理和释放数据库连接,它允许多个程序重复的使用现有的数据库连接,而不是重新建立一个。3.当应用程序向连接池请求的数量超过最大......
  • 聊聊神经网络模型流程与卷积神经网络的实现
    神经网络模型流程神经网络模型的搭建流程,整理下自己的思路,这个过程不会细分出来,而是主流程。在这里我主要是把整个流程分为两个主流程,即预训练与推理。预训练过程主要是生成超参数文件与搭设神经网络结构;而推理过程就是在应用超参数与神经网络。卷积神经网络的实现在聊聊卷......
  • 聊聊部署在不同K8S集群上的服务如何利用nginx-ingress进行灰度发布
    前言之前有篇文章聊聊如何利用springcloudgateway实现简易版灰度路由,里面的主人公又有一个需求,他们有个服务是没经过网关的,而是直接通过nginx-ingress暴露出去,现在这个服务也想做灰度,他知道在同个集群如何利用nginx-ingress进行灰度发布,但是现在这个服务是部署在新的集群,他查了......
  • Spring Cloud 配置 Druid(二)
    不废话,直接上代码,Nacos搭建的微服务,可以看https://www.cnblogs.com/hanjun0612/p/17867349.html 一,pom文件spring-cloud-starter-alibaba-nacos-discovery和spring-cloud-starter-openfeign都是基于spring-cloud-alibaba-dependencies版本为:2022.0.0.0<!--mybatis-->......
  • 聊聊 神经网络模型 预训练生成超参数实现
    概述在上一篇博客中,已经阐述了预训练过程中,神经网络中超参数的计算逻辑,本文,从程序实现的角度,将数学计算转换为程序代码,最终生成超参数文件;并将替换聊聊神经网络模型示例程序——数字的推理预测中已训练好的超参数文件,推理预测数字,最终比对下两者的精确度。神经网络层实现首......