0.SpringCloud升级,部分组件停用:
- Eureka停用,可以使用zk作为服务注册中心
- 服务调用,Ribbon准备停更,代替为LoadBalance
- Feign改为OpenFeign
- Hystrix停更,改为resilence4j或者阿里巴巴的sentienl
- Zuul改为gateway
- 服务配置Config,还有Apoll,改为 Nacos
- 服务总线Bus改为Nacos
环境搭建:
1.创建父工程,pom依赖
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>org.atguigu.springcloud</groupId>
<artifactId>cloud2020</artifactId>
<version>1.0-SNAPSHOT</version>
<modules>
<module>cloud-provider-payment8001</module>
<module>cloud-consumer-order80</module>
<module>cloud-api-common</module>
<module>cloud-eureka-server7001</module>
<module>cloud-eureka-server7002</module>
<module>cloud-provider-payment8002</module>
<module>cloud-provider-payment8004</module>
<module>cloud-consumerzk-order80</module>
<module>cloud-provider-payment8006</module>
<module>cloud-consumerconsul-order80</module>
<module>cloud-consumer-feign-order80</module>
<module>cloud-provider-hystrix-payment8001</module>
<module>cloud-consumer-hystrix-feign-order80</module>
<module>cloud-consumer-hystrix-dashboard9001</module>
<module>cloud-gateway-gateway9527</module>
<module>cloud-config-center-3344</module>
<module>cloud-config-client3355</module>
<module>cloud-config-client-3366</module>
<module>cloud-stream-rabbitmq-provider8801</module>
<module>cloud-stream-rabbitmq-consumer8802</module>
<module>cloud-stream-rabbitmq-consumer8803</module>
<module>cloudalibaba-provider-payment9001</module>
<module>cloudalibaba-provider-payment9002</module>
<module>cloudalibaba-consumer-nacos-order83</module>
<module>cloudalibaba-config-nacos-client3377</module>
<module>cloudAlibaba-sentinelservice8401</module>
<module>cloudalibaba-provider-payment9003</module>
<module>cloudalibaba-provider-payment9004</module>
<module>cloudalibaba-consumer-nacos-order84</module>
<module>seata-order-service-2001</module>
<module>seata-storage-service</module>
<module>seata-account-service2003</module>
</modules>
<packaging>pom</packaging>
<!-- 统一管理jar版本-->
<properties>
<project.build.sourceEncodging>UTF-8</project.build.sourceEncodging>
<maven.compiler.source>1.8</maven.compiler.source>
<maven.complier.target>1.8</maven.complier.target>
<junit.version>4.12</junit.version>
<log4j.version>1.2.17</log4j.version>
<lombok.version>1.16.18</lombok.version>
<mysql.version>5.1.47</mysql.version>
<druid.version>1.1.16</druid.version>
<mybatis.spring.boot.version>1.3.0</mybatis.spring.boot.version>
</properties>
<!-- 子模块继承之后,提供作用:锁定版本和子module不用写groupId和verison-->
<dependencyManagement>
<dependencies>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-dependencies</artifactId>
<version>2.2.2.RELEASE</version>
<type>pom</type>
<scope>import</scope>
</dependency>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-dependencies</artifactId>
<version>Hoxton.SR1</version>
<type>pom</type>
<scope>import</scope>
</dependency>
<dependency>
<groupId>com.alibaba.cloud</groupId>
<artifactId>spring-cloud-alibaba-dependencies</artifactId>
<version>2.1.0.RELEASE</version>
<type>pom</type>
<scope>import</scope>
</dependency>
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
<version>${mysql.version}</version>
</dependency>
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid</artifactId>
<version>${druid.version}</version>
</dependency>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>${junit.version}</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<version>${lombok.version}</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>log4j</groupId>
<artifactId>log4j</artifactId>
<version>${log4j.version}</version>
</dependency>
<dependency>
<groupId>org.mybatis.spring.boot</groupId>
<artifactId>mybatis-spring-boot-starter</artifactId>
<version>${mybatis.spring.boot.version}</version>
</dependency>
</dependencies>
</dependencyManagement>
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
<configuration>
<fork>true</fork>
<addResources>true</addResources>
</configuration>
</plugin>
</plugins>
</build>
</project>
2.创建子模块pay模块
- 建Module
- 改POM,引入依赖
- 写yml
- 主启动类
- 业务类
1.子模块名字:
cloud_pay_8001
2.pom依赖
<dependencies>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-zipkin</artifactId>
<version>2.2.1.RELEASE</version>
</dependency>
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-eureka-client</artifactId>
</dependency>
<!--包含了sleuth+zipkin-->
<dependency>
<groupId>org.atguigu.springcloud</groupId>
<artifactId>cloud-api-common</artifactId>
<version>1.0-SNAPSHOT</version>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>//图形监控
<artifactId>spring-boot-starter-actuator</artifactId>
</dependency>
<dependency>
<groupId>org.mybatis.spring.boot</groupId>
<artifactId>mybatis-spring-boot-starter</artifactId>
</dependency>
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid-spring-boot-starter</artifactId>
<version>1.1.10</version>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
<!-- https://mvnrepository.com/artifact/mysql/mysql-connector-java -->
<dependency>
<groupId>mysql</groupId>
<artifactId>mysql-connector-java</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-jdbc</artifactId>
</dependency>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<optional>true</optional>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-devtools</artifactId>
<scope>runtime</scope>
<optional>true</optional>
</dependency>
</dependencies>
3.创建application.yml
server:
port: 8001
spring:
application:
name: cloud-payment-service
datasource:
# 当前数据源操作类型
type: com.alibaba.druid.pool.DruidDataSource
# mysql驱动类
driver-class-name: com.mysql.cj.jdbc.Driver
url: jdbc:mysql://localhost:3306/db2019?useUnicode=true&characterEncoding=
UTF-8&useSSL=false&serverTimezone=GMT%2B8
username: root
password: root
mybatis:
mapper-locations: classpath*:mapper/*.xml
type-aliases-package: com.atguigu.springcloud.entities
#它一般对应我们的实体类所在的包,这个时候会自动取对应包中不包括包名的简单类名作为包括包名的别名。多个package之间可以用逗号或者分号等来进行分隔(value的值一定要是包的全类名)
4.主启动类
@SpringBootApplication
@EnableEurekaClient
public class PaymentMain8001 {
public static void main(String[] args) {
SpringApplication.run(PaymentMain8001.class,args);
}
}
5.业务类
1.sql
create table ``(
`id` bigint(20) not null auto_increment comment 'id',
`serial` varchar(200) default '',
primary key(`id`)
)engine=InnoDB AUTO_INCREMENT=1 default charset=utf8
2.实体类
public class Payment implements Serializable{
private Long id;
private String serial;
}
3.entity类
public class CommontResult<T>{
private Integer code ;
private String message;
private T data;
public CommonResult(Integer code,String message){
this(code,message,null);
}
}
4.dao层:
@Mapper
public interface PaymentDao{
public int create(Payment payment);
public Payment getPaymentByID(@Param("id") Long id);
}
5.mapper配置文件类
在resource下,创建mapper/PayMapper.xml
<mapper namespace="com.atguigu.springcloud.dao.PaymentDao">
<insert id="create" parameterType="com.atguigu.springcloud.entities.Payment" useGeneratedKeys="true" keyProperty="id">
insert into payment(serial) values(#{serial})
</insert>
<select id="getPaymentById" resultMap="BaseResultMap" paramterType='Long'>
select id,serial from payment where id=#{id}
</select>
<resultMap id="BaseResultMap" type="com.atguigu.springcloud.entities.Payment">
<id column="id" property="id" jdbcType="BIGINT"></id>
<result column="serial" property="serial" jdbcType="VARCHAR"></result>
</resultMap>
</mapper>
6.写service和serviceImpl
public interface PaymentService{
public int create(Payment payment);
public Payment getPaymentByID(@Param("id") Long id);
}
@Service
public class PaymentServiceImpl implements PaymentService{
@Resource
private PayementDao paymentDao;
public int creae(Payment payment){
return paymentDao.create(payment);
}
public Payment getPaymentByID(Long id){
return paymentDao.getPaymentByID(id);
}
}
7.controller
@RestController
@Slf4j
@RequestMapping
public class PaymentController {
@Autowired
private PaymentService paymentService;
@Resource
private DiscoveryClient discoveryClient;
@Value("${server.port}")
private String serverPort;
@PostMapping(value = "/payment/create")
public CommonResult Create(@RequestBody Payment payment){
int i = paymentService.create(payment);
log.info("插入结果{}",i);
if(i>0){
return new CommonResult(200,"插入成功,serverPort:"+serverPort,i);
}else {
return new CommonResult(400,"插入失败",null);
}
}
@GetMapping(value = "/payment/getPaymentByid/{id}")
public CommonResult getPaymentByid(@PathVariable String id){
Payment payment = paymentService.getPaymentById(id);
log.info("获取结果{}",payment);
return new CommonResult(200,"获取成功,serverPort:"+serverPort,payment);
}
}
3.热部署:
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-devtools</artifactId>
<scope>runtime</scope>
<optional>true</optional>
</dependency>
<!--cloud工程pom -->
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
<configuration>
<fork>true</fork>
<addResources>true</addResources>
</configuration>
</plugin>
</plugins>
</build>
4.order模块
- 建Module
- 改POM,引入依赖
- 写yml
- 主启动类
- 业务类
1.pom
2.yml配置文件
server:
port: 80
3.主启动类
4.复制pay模块的实体类,entity类
5.写controller类
因为这里是消费者类,主要是消费,那么就没有service和dao,需要调用pay模块的方法, 并且这里还没有微服务的远程调用,那么如果要调用另外一个模块,则需要使用基本的api调用,使用RestTemplate调用pay模块,RestTemplate提供了多种便捷访问远程Http服务的方法,是一种简单便捷的访问restful服务模版类,是Spring提供的用于访问Rest服务的客户端模版工具类。
使用
使用RestTemplate访问restful接口非常简单粗暴无脑。(url,requestMap,ResponseBean.class)这三个参数分别代表REST请求地址/请求参数/HTTP响应转换被转换成的对象类型。
将restTemplate注入到容器
@Configuration
public class ApplicationContextConfig{
@Bean
//@LoadBalanced 暂时注解掉,使用自定义负载
public RestTemplate getRestTemplate(){
return new RestTemplate();
}
}
编写controller:
@Slf4j
@RestController
public class OrderController {
// 单机版
private static final String PAYMENT_URL="http://localhost:8001";
@Resource
private RestTemplate restTemplate;
@GetMapping("/consumer/payment/create")
public CommonResult<Payment> create(Payment payment) {
return restTemplate.postForObject(PAYMENT_URL + "/payment/create", payment, CommonResult.class);
}
@GetMapping("/consumer/payment/getId/{id}")
public CommonResult<Payment> getId(@PathVariable("id") String id) {
return restTemplate.getForObject(PAYMENT_URL + "/payment/getPaymentByid/" + id, CommonResult.class);
}
}
5.重构
新建一个模块,将重复代码抽取到一个公共模块中
1.创建common模块
2.抽取公共pom
<dependencies>
<dependency>
<groupId>org.projectlombok</groupId>
<artifactId>lombok</artifactId>
<optional>true</optional>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-devtools</artifactId>
<scope>runtime</scope>
<optional>true</optional>
</dependency>
<dependency>
<groupId>cn.hutool</groupId>
<artifactId>hutool-all</artifactId>
<version>5.7.3</version>
</dependency>
</dependencies>
3.entity和实体类放入common中
4.使用maven,将common模块打包(install),
其他模块引入common
2.服务注册与发现
6.Eureka:
前面我们没有服务注册中心,也可以服务间调用,为什么还要服务注册?
当服务很多时,单靠代码手动管理是很麻烦的,需要一个公共组件,统一管理多服务,包括服务是否正常运行,等
Eureka用于服务注册,目前官网已经停止更新
什么是服务治理
Spring Cloud封装了Netflix公司开发的Eureka模块来实现**服务治理**
在传统的rpc远程调用框架中,管理每个服务与服务之间的依赖关系比较复杂,管理比较复杂,所以需要使用服务治理,管理服务于服务之间的依赖关系,可以实现服务调用、负载均衡、容错等,实现服务发现与注册。
什么是服务注册与发现
Eureka采用了CS的设计架构,Eureka Server作为服务注册功能的服务器,它是服务注册中信。而系统中的其他微服务,使用Eureka的客户端连接到Eureka Server并维持心跳连接。这样系统的维护人员就可以通过Eureka Server来监控系统中各个微服务是否正常运行。
在服务注册与发现中,有一个注册中心。当服务器启动的时候,会把当前自己服务器的信息。比如服务地址、通讯地址等以别名方式注册到注册中心上。另一方(消费者-服务提供者),以该别名的方式去注册中心上获取到实际的服务通讯地址,然后再实现本地RPC调用。RPC远程调用框架核心设计思想:在于注册中心,因为使用注册中心管理每个服务与服务之间的一个依赖关系(服务治理概念)。在任何rpc远程框架中,都会有一个注册中心(存放服务地址相关信息(接口地址))
Eureka包含两个组件:Eureka Server和Eureka Client
Eureka Server提供服务注册服务
各个微服务节点通过配置启动后,会在Eureka Server中进行注册,这样Eureka Server中的服务注册表中将会存储所欲可用服务节点的信息,服务节点的信息可以在界面中直观看到。
Eureka Client通过注册中心进行访问
是一个Java客户端,用于简化Eureka Server 的交互,客户端同时也具备一个内置的、使用轮询(round-robin)负载算法的负载均衡器。在应用启动后,将会向Eureka Server发送心跳(默认周期为30秒)。如果Eureka Server在多个心跳周期内没有接收到某个节点的心跳。Eureka Server将会从服务注册表中把这个服务节点移除(默认90秒)
单机版eureka:
1.创建项目cloud_eureka_server_7001
2.引入pom依赖
eurka最新的依赖变了
1.X和2.X的对比说明
以前的老版本(当前使用2018)
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-eureka</artifactId>
</dependency>
现在新版本(当前使用2020.2)
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-eureka-server</artifactId>
</dependency>
3.配置文件:
4.主启动类
@SpringBootApplication
@EnableEurekaServer //启动euarka服务端
public class EurekaMain7001 {
public static void main(String[] args) {
SpringApplication.run(EurekaMain7001.class,args);
}
}
5.此时就可以启动当前项目了
6.其他服务注册到eureka:
比如此时pay模块加入eureka:
1.主启动类上,加注解@EnableEurekaClient,表示当前是eureka客户端
@SpringBootApplication
@EnableEurekaClient
//@EnableDiscoveryClient
public class PaymentMain8001 {
public static void main(String[] args) {
SpringApplication.run(PaymentMain8001.class,args);
}
}
2.修改pom,引入Client的依赖
<!-- eureka-client -->
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-eureka-client</artifactId>
</dependency>
3.修改配置文件:
eureka:
client:
#表示是否将自己注册进EurekaServer,默认为true。
register-with-eureka: true
#是否从Eureka Server抓取已有的注册信息,默认为true。单节点无所谓,集群必须设置为true,才能配合ribbon使用负载均衡
fetchRegistry: true
service-url:
defaultZone: http://localhost:7001/eureka
4.pay模块重启,就可以注册到eureka中了
order模块的注册是一样的
集群版eureka:
集群原理:
1.就是pay模块启动时,注册自己,并且自身信息也放入eureka
2.order模块,首先也注册自己,放入信息,当要调用pay时,先从eureka拿到pay的调用地址
3.通过HttpClient调用并且还会缓存一份到本地,每30秒更新一次
问题:微服务RPC远程服务调用最核心的是什么?
高可用,试想你的注册中心只有一个only one。它出了故障就呵呵了,会导致整个服务环境不可用,所以解决办法:搭建Eureka注册中心集群,实现负载均衡+故障容错
集群构建原理:
互相注册
构建新erueka项目
名字:cloud_eureka_server_7002
1,pom文件:
粘贴7001的即可
2,配置文件:
在写配置文件前,修改一下主机的hosts文件
127.0.0.1 eureka7001.com
127.0.0.1 eureka7002.com
127.0.0.1 eureka7003.com
首先修改之前的7001的eureka项目,因为多个eureka需要互相注册
server:
port: 7001
eureka:
instance:
# hostname: localhost
hostname: eureka7001.com
#eureka服务端的实例名称
client:
# 不向euraka注册自己
register-with-eureka: false
# false表示自己端就是注册中心,我的职责就是维护实例,并不需要去检索服务
fetch-registry: false
service-url:
# 单机下配置
# 设置与Eurka Server交互端地址查询服务和注册服务都需要依赖这个地址
defaultZone: http://eureka7002.com:7002/eureka/ #注意:这里指定的是7002的地址
然后修改7002
7002也是一样的,只不过端口和地址改一下
3,主启动类:
复制7001的即可
4,然后启动7001,7002即可
将pay,order模块注册到eureka集群中:
1,只需要修改配置文件即可:
eureka:
client:
#表示是否将自己注册进EurekaServer,默认为true。
register-with-eureka: true
#是否从Eureka Server抓取已有的注册信息,默认为true。单节点无所谓,集群必须设置为true,才能配合ribbon使用负载均衡
fetch-registry: true
service-url:
#defaultZone: http://eureka7001.com:7001/eureka/
defaultZone: http://eureka7001.com:7001/eureka/,http://eureka7002.com:7002/eureka/
2,两个模块都修改上面的都一样即可
然后启动两个模块
要先启动7001,7002,然后是pay模块8001,然后是order(80)
3,将pay模块也配置为集群模式:
0,创建新模块,8002
名称: cloud_pay_8002
1,pom文件,复制8001的
2,pom文件复制8001的
3,配置文件复制8001的
端口修改一下,改为8002
服务名称不用改,用一样的
4.主启动类,复制8001的
5,mapper,service,controller都复制一份
然后就启动服务即可
此时访问order模块,发现并没有负载均衡到两个pay,模块中,而是只访问8001
虽然我们是使用RestTemplate访问的微服务,但是也可以负载均衡的
注意这样还不可以,需要让RestTemplate开启负载均衡注解,还可以指定负载均衡算法,默认轮询
@Configuration
public class RestTemplateConfig {
@Bean
@LoadBalanced
//暂时注解掉,使用自定义负载,不能同时存在
public RestTemplate getRestTemplate(){
return new RestTemplate();
}
}
4,修改服务主机名和ip在eureka的web上显示
比如修改pay模块
1,修改配置文件:
eureka:
client:
#表示是否将自己注册进EurekaServer,默认为true。
register-with-eureka: true
#是否从Eureka Server抓取已有的注册信息,默认为true。单节点无所谓,集群必须设置为true,才能配合ribbon使用负载均衡
fetch-registry: true
service-url:
#defaultZone: http://eureka7001.com:7001/eureka/ 单机版
defaultZone: http://eureka7001.com:7001/eureka/,http://eureka7002.com:7002/eureka/ #集群版
instance:
instance-id: payment8001
prefer-ip-address: true #访问路径可以显示IP地址
5,eureka服务发现:
对于注册进Eureka里面的微服务,可以通过服务发现来获得该服务的信息
以pay模块为例
1,首先添加一个注解,在controller中
@RestController
@Slf4j
@RequestMapping
public class PaymentController {
@Autowired
private PaymentService paymentService;
@Resource
private DiscoveryClient discoveryClient;
@Value("${server.port}")
private String serverPort;
@GetMapping(value = "/payment/discovery")
public Object discovery(){
List<String> services = discoveryClient.getServices();//拿到所有注册的信息
services.forEach(System.out::println);
List<ServiceInstance> instances = discoveryClient.getInstances("CLOUD-PAYMENT-SERVICE");//拿到指定服务名称的所有服务的注册信息,比如pay模块,他们两个的名字都是一样的,所有这里返回的是一个list
for (ServiceInstance instance : instances) { log.info("instance:"+instance.getHost()+",port:"+instance.getPort()+","+"url:"+instance.getUri());
}
return this.discoveryClient;
}
}
2,在主启动类上添加一个注解
@SpringBootApplication
@EnableEurekaClient
@EnableDiscoveryClient //添加该注解
public class PaymentMain8001{
public static void main(String[]){
SpringApplication.run(PaymentMain8001.class,args);
}
}
然后重启8001.访问/payment/discovery
6,Eureka自我保护:
概述
保护模式主要用于一组客户端和Eureka Server之间存在网络分区场景下的保护。一旦进入保护模式,Eureka Server将会尝试保护其服务注册表中的信息,不再删除服务注册中的数据,也就是不会注销任何微服务
一句话:某个时刻某一个微服务不可用了,Eureka不会立刻清理,依旧会对该微服务的信息进行保存,属于CAP里面的AP分支
为什么会产生Eureka自我保护机制?
为了防止EurekaClient可以正常运行,但是与Eureka Server网络不通情况下EurekaServer不会立刻将EurekaClient服务剔除
什么是自我保护模式?
默认情况下,如果EurekaServer在一定时间内没有接收到某个微服务实例的心跳,EurekaServer将会注销该实例(默认90秒)。但是当网络分区故障发生(延时、卡顿、拥挤)时,微服务与EurekaServer之间无法正常通信,以上行为可能变得非常危险了-----因为微服务本身其实是健康的,此时本不应该注销这个微服务。Eureka通过"自我保护模式"来解决这个问题-----当EurekaServer节点在短时间内丢失过多客户端时(可能发生了网络分区故障),那么这个节点就会进入自我保护模式。
在自我保护模式中,EurekaServer会保护服务注册表中的信息,不再注销任何服务实例。
它的设计哲学就是宁可保留错误的服务注册信息,也不盲目注销任何可能健康的服务实例。--->一句话讲解:好死不如赖活
综上,自我保护模式就是一种应对网络异常的安全保护措施。它的架构哲学是宁可同时保留所有微服务(健康的微服务和不健康的微服务都会保留)也不盲目注销任何健康的微服务。使用自我保护模式,可以让Eureka集群更加的健壮、稳定。
自我保护机制:默认情况下EurekaClient定时向EurekaServer端发送心跳包。如果EurekaServer端在一定时间内(默认90秒)没有收到EurekaClient发送心跳包,便会直接从服务注册列表中剔除该服务,但是在短时间内(90秒内)丢失了大量的服务实例心跳,这时候EurekaServer会开启自我保护机制,不会剔除该服务(该现象可能出现在如果网络不通,但是EurekaClient以为出现宕机,此时如果换做别的注册中心如果一定时间内没有收到心跳,就会将剔除该服务,这样就出现了严重失误,因为客户端还能正常发送心跳,只是网络延迟问题,而保护机制是为了解决此问题而产生的)
eureka服务端配置:
出厂默认自我保护机制是开启的
server:
enable-self-preservation: false //可以禁用自我保护模式
设置接受心跳时间间隔
eviction-interval-timer-in-ms: 2000
客户端(比如pay模块):
eureka:
client:
register-with-eureka: true
fetch-registry: true
service-url:
defaultZone: http://eureka7001.com:7001/eureka/
# defaultZone: http://eureka7001.com:7001/eureka/,http://eureka7002.com:7002/eureka/
#心跳检测与续约时间
#开发时设置小些,保证服务关闭后注册中心能及时剔除服务
instance:
instance-id: payment8001
prefer-ip-address: true
# Eureka客户端向服务端法发送心跳的时间间隔,默认30秒
lease-renewal-interval-in-seconds: 1
# Eureka服务端子收到最后一次心跳后等待时间上限,默认为90秒,单位为秒,超时将剔除服务
lease-expiration-duration-in-seconds: 2
此时启动erueka和pay.此时如果直接关闭了pay,那么eureka会直接删除其注册信息
7,Zookeeper服务注册与发现:
1,启动zk,到linux上,没有图形化界面
2,创建新的pay模块,
单独用于注册到zk中
名字 : cloud_pay_8003
1,pom依赖
2,配置文件
#8004表示注册到zookeeper服务器的支付服务提供者端口号
server:
port: 8004
#服务别名---- 注册zookeeper到注册中心名称
spring:
application:
name: cloud-provider-payment
datasource:
type: com.alibaba.druid.pool.DruidDataSource
cloud:
zookeeper:
connect-string: 47.105.184.98:2181
3,主启动类
@SpringBootApplication
@EnableDiscoveryClient
public class PaymentMain8004 {
public static void main(String[] args) {
SpringApplication.run(PaymentMain8004.class,args);
}
}
4,controller
@RestController
@Slf4j
public class PaymentController {
@Value("${server.port}")
private String serverPort;
@GetMapping("/payment/zk")
public String getZk(){
return "springcloud with zookeeper: port: "+serverPort+", "+ UUID.randomUUID().toString();
}
}
5,然后就可以启动
此时启动,会报错,因为jar包与我们的zk版本不匹配
解决:
修改pom文件,改为与我们zk版本匹配的jar包
<!-- SpringBoot整合zookeeper客户端 -->
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-zookeeper-discovery</artifactId>
<!--先排除自带的zookeeper3.5.3-->
<exclusions>
<exclusion>
<groupId>org.apache.zookeeper</groupId>
<artifactId>zookeeper</artifactId>
</exclusion>
</exclusions>
</dependency>
<!--添加zookeeper3.4.9版本-->
<dependency>
<groupId>org.apache.zookeeper</groupId>
<artifactId>zookeeper</artifactId>
<version>3.4.9</version>
</dependency>
此时8003就注册到zk中了
我们在zk上注册的node是临时节点,当我们的服务一定时间内没有发送心跳
那么zk就会`将这个服务的node删除了
这里测试,就不写service与dao什么的了
3,创建order消费模块注册到zk
1,创建项目
名字: cloud_order_zk_80
2,pom
3,配置文件
server:
port: 80
spring:
application:
name: cloud-order-service
cloud:
#注册到zookeeper地址
zookeeper:
connect-string: 47.105.184.98:2181
4,主启动类:
@SpringBootApplication
@EnableDiscoveryClient
public class OrderZk80 {
public static void main(String[] args) {
SpringApplication.run(OrderZk80.class,args);
}
}
5,RestTemplate
@Configuration
public class RestTemplateConfig {
@Bean
@LoadBalanced
public RestTemplate restTemplate() {
return new RestTemplate();
}
}
6,controller
@RestController
@Slf4j
public class Orderzk80Controller {
public static final String INVOKE_URL = "http://cloud-provider-payment";
@Resource
RestTemplate restTemplate;
@GetMapping("/payment/zk")
public String getPaymentbyid() {
log.warn("orderzk80");
return restTemplate.getForObject(INVOKE_URL + "/payment/zk", String.class);
}
}
然后启动即可注册到zk
8,集群版zk注册:
只需要修改配置文件:
server:
port: 80
spring:
application:
name: cloud-order-service
cloud:
#注册到zookeeper地址
zookeeper:
connect-string: 47.105.184.98:2181
这个connect-string指定多个zk地址即可
connect-string: 1.2.3.4,2.3.4.5
8,Consul:
Consul是一套开源的分布式服务发现和配置管理系统,油HashiCorp公司用Go语言开发。
提供了微服务系统中的服务治理、配置中心、控制总线等功能,这些功能中的每一个都可以根据需要单独使用,也可以一起使用以构建全方位的服务网格,总之Consul提供了一种完整的服务网格解决方案。
它具有很多优点,包括:基于Raft协议,比较简洁:支持健康检查,同时支持HTTP和DNS协议,支持跨数据中心的WAN集群,提供图形界面,跨平台,支持Linux、Mac、Windows。
1,按照consul
需要下载一个安装包
启动是一个命令行界面,需要输入consul agen-dev启动
2,创建新的pay模块,8006
1,项目名字
cloud_consule_pay_8006
2,pom依赖
3,配置文件
#Consul服务端口号
server:
port: 8006
spring:
application:
name: cloud-provider-payment
datasource:
type: com.alibaba.druid.pool.DruidDataSource
#consul注册中心地址
cloud:
consul:
host: 127.0.0.1
# host: 47.105.184.98
port: 8500
discovery:
service-name: ${spring.application.name} ###对外暴露的服务名称
4,主启动类
@SpringBootApplication
@EnableDiscoveryClient
public class PaymentMain8006 {
public static void main(String[] args) {
SpringApplication.run(PaymentMain8006.class,args);
}
}
5,controller
@RestController
@Slf4j
public class PaymentController {
@Value("${server.port}")
private String serverPort;
@GetMapping(value = "/payment/consul")
public String getConsul(){
return "springcloud with consul: port: "+serverPort+","+ UUID.randomUUID().toString();
}
}
6,启动服务
3,创建新order模块
cloud-consul-order-80
1,pom文件
2,配置文件
server:
port: 80
spring:
application:
name: cloud-order-service
datasource:
type: com.alibaba.druid.pool.DruidDataSource
#consul注册中心地址
cloud:
consul:
# host: 47.105.184.98
host: 127.0.0.1
port: 8500
discovery:
service-name: ${spring.application.name}
3,主启动类
@SpringBootApplication
@EnableDiscoveryClient
public class OrderConsul80 {
public static void main(String[] args) {
SpringApplication.run(OrderConsul80.class, args);
}
}
4,RestTemplate注册
配置类注册
@Configuration
public class RestTemlateConfig {
@Bean
@LoadBalanced
public RestTemplate restTemplate(){
return new RestTemplate();
}
}
5,controller
@Slf4j
@RestController
public class OrderConsul80Controller {
@Resource
private RestTemplate restTemplate;
private static final String INVOKE_URL="http://cloud-provider-payment";
@GetMapping("/payment/consul")
public String getConsul(){
return restTemplate.getForObject(INVOKE_URL+"/payment/consul",String.class);
}
}
6,启动服务,测试
9,三个注册中心的异同:
组件名 | 语言 | CAP | 服务健康检查 | 对外暴露接口 | Spring Cloud集成 |
---|---|---|---|---|---|
Eureka | Java | AP | 可配支持 | HTTP | 已集成 |
Consul | Go | CP | 支持 | HTTP/DNS | 已集成 |
Zookeeper | Java | CP | 支持 | 客户端 | 已集成 |
最多只能同时较好的满足两个。
CAP理论的核心是:一个分布式系统不可能同时很好的满足一致性、可用性和分区容错性这三个需求,因此根据CAP原理将NoSQL数据库分成了满足CA原则、满足CP原则和满足AP原则三大类:
- CA - 单点集群,满足一致性、可用性的系统,通常在可扩性上不太强大。
- CP -满足一致性、分区容忍性的系统,通常性能不是特别高。
- AP -满足可用性、分区容忍性的系统,通常可能对一致性要求低一些。
CP架构
当网络分区出现后,为了保证一致性,就必须拒接请求,否则无法保证一致性
结论:违背了可用性A的要求,只满足一致性和分区容错,即CP
3.服务调用
10,Ribbon负载均衡:
Spring Cloud Ribbon是基于Netflix Ribbon实现的一套客户端负载均衡的工具。
简单的说,Ribbon是Netflix发布的开源项目,主要功能是提供客户端的软件负载均衡算法和服务调用。Ribbon客户端组件提供一系列的配置项如连接超时、重试等。简单的说,就是在配置文件中列出Load Blancer(简称LB)后面的所有的机器,Ribbon会自动的帮助你基于某种规则(如简单轮询/随机连接等)去连接这些机器。我们很容易使用Ribbon实现自定义的负载均衡算法。
Ribbon目前也进入维护,基本上不准备更新了
进程内LB(本地负载均衡)
将LB逻辑集成到消费方,消费方从服务注册中心获知有哪些地址可用,然后自己再从这些地址中选择出一个合适的服务器。Ribbon就属于进程内LB,它只是一个类库,集成于消费方进程,消费方通过它来获取到服务提供方的地址(本地jvm进程进行负载均衡)
集中式LB(服务端负载均衡)
即在服务的消费方和提供方之间使用独立的LB设施(可以是硬件,如F5,也可以是软件,如Nginx),由该设施负责把访问请求通过某种策略转发至服务的提供方;
区别
LB负载均衡(Load Balance)是什么
简单的说就是将用户的请求平摊的分配到多个服务商,从而达到系统的HA(高可用)。
常见的负载均衡有软件Nginx、LVS,硬件F5等。
Ribbon本地负载均衡客户端VSNginx服务端负载均衡区别
Nginx是服务器负载均衡,客户端所有请求都会交给Nginx,然后由Nginx实现转发请求,即负载均衡是由服务端实现的。
Ribbon本地负载均衡,在调用微服务接口时,会在注册中心上获取注册信息服务列表之后缓存到JVM本地,从而在本地实现RPC远程服务调用技术。
Ribbon就是负载均衡+RestTemplate
总结:Ribbon其实就是一个软负载均衡的客户端组件,它可以和其他所需请求的客户端结合使用,和eureka结合只是其中的一个实例。
Ribbon在工作时分成两步
第一步先选择EurekaServer,它优先选择在同一个区域内负载较少的server.
第二步再根据用户指定的策略,在从server取到的服务注册列表中选择一个地址。
其中Ribbon提供了多种策略:比如轮询、随机和根据响应时间加权。
使用Ribbon:
1,默认我们使用eureka的新版本时,它默认集成了ribbon:
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-eureka-client</artifactId>
</dependency>
这个starter中集成了ribbon了
2,我们也可以手动引入ribbon
放到order模块中,因为只有order访问pay时需要负载均衡
<dependency>
<groupId>org.springframework.cloud</groupId>
<artifactId>spring-cloud-starter-netflix-ribbon</artifactId>
</dependency>
3,RestTemplate类:
RestTemplate的:
xxxForObject()方法,返回的是响应体中的数据
xxxForEntity()方法.返回的是entity对象,这个对象不仅仅包含响应体数据,还包含响应体信息(状态码等)
Ribbon常用负载均衡算法:
IRule接口,Riboon使用该接口,根据特定算法从所有服务中,选择一个服务,
IRule接口有7个实现类,每个实现类代表一个负载均衡算法
使用Ribbon:
这里使用eureka的那一套服务
官方文档明确给出了警告:
这个自定义配置不能放在@ComponentScan所扫描的当前包下以及子包下,否则我们自定义的这个配置类就会被所有的Ribbon客户端所共享,达不到特殊化定制的目的。也就是不能放在主启动类所在的包及子包下
1,修改order模块
2,额外创建一个包
3,创建配置类,指定负载均衡算法
@Configuration
public class Myrule {
@Bean
public IRule myRule(){
return new RandomRule();//定义为随机
}
}
4,在主启动类上加一个注解
@SpringBootApplication
@EnableEurekaClient
@RibbonClient(name = "CLOUD-PAYMENT-SERVICE",configuration = Myrule.class)
public class OrderMain80 {
public static void main(String[] args) {
SpringApplication.run(OrderMain80.class, args);
}
}
表示,访问CLOUD_PAYMENT_SERVICE的服务时,使用我们自定义的负载均衡算法
自定义负载均衡算法:
1,ribbon的轮询算法原理
负载均衡算法:rest接口第几次请求数 % 服务器集群总数量 = 实际调用服务器位置下标,每次服务重启动后rest接口计数从1开始
2,自定义负载均衡算法:
1,给pay模块(8001,8002),的controller方法添加一个方法,返回当前节点端口
@Value("${server.port}")
private String serverPort;
@GetMapping("/payment/lb")
public String getPayment(){
return serverPort;
}
2,修改order模块
去掉@LoadBalanced
@Configuration
public class RestTemlateConfig {
@Bean
//@LoadBalanced //注释掉
public RestTemplate restTemplate(){
return new RestTemplate();
}
}
3,自定义接口
public interface LoadBalance {
ServiceInstance instance(List<ServiceInstance> serviceInstances);
}
具体的算法在实现类中实现
4,接口实现类
@Component
public class MyLoadBalanceImpl implements LoadBalance {
private AtomicInteger atomicInteger = new AtomicInteger(0);
//这个方法是获取下一个要调用服务的id
public final int getAndIncrement() {
int current;
int next;
do {
current = this.atomicInteger.get();
next = current >= 2147483647 ? 0 : current + 1;
} while (!this.atomicInteger.compareAndSet(current, next));//调用CAS进行自旋锁,每次next+1
System.out.println("*******第几次访问,next:" + next);
return next;
}
@Override
public ServiceInstance instance(List<ServiceInstance> serviceInstances) {
int size = serviceInstances.size();
int index = 0;
if (size > 0) {
//getAndIncrement() 拿到id,进行取余得到真正要调用服务的下标
index = getAndIncrement() % size;
}
return serviceInstances.get(index);
}
5,修改controller:
@Resource
private DiscoveryClient discoveryClient;
@Resource
private LoadBalance loadBalance;//自定义类
@GetMapping("/consumer/payment/lb")
public String getPaymentLB() {
//拿到指定服务下的所有服务
List<ServiceInstance> instances = discoveryClient.getInstances("CLOUD-PAYMENT-SERVICE");
if (instances == null || instances.size() < 0) {
return null;
}
ServiceInstance instance = loadBalance.instance(instances);
URI uri = instance.getUri();
return restTemplate.getForObject(uri + "/payment/lb", String.class);
}
6,启动服务,测试即可
11,OpenFeign
Feign是一个声明式WebService客户端。使用Feign能让编写Web Service客户端更加简单。
它的使用方法是定义一个服务接口,然后在上面添加注解。Feign也支持可插拔式的编码器和解码器。Spring Cloud对Feign进行了封装,使其支持了Spring MVC标准注解和HttpMessageConverters。Feign可以与Eureka和Ribbon组合以支持负载均衡。
是一个声明式的web客户端,只需要创建一个接口,添加注解即可完成微服务之间的调用
Feign能干什么
Feign旨在使编写Java HTTP客户端变得更容易,就是远程调用其他服务。
前面在使用Ribbon+RestTemplate时,利用RestTemplate对http请求的封装处理,形成了一套模板化的调用方法。但是在实际开发中,由于对服务依赖的调用可能不止一处,往往一个接口会被多处调用,所以通常都会针对每个微服务自行封装一些客户端类来包装这些依赖服务的调用。所以,Feign在此基础上做了进一步封装,由他来帮助我们定义和实现依赖服务接口的定义。在Feign的实现下,我们只需创建一个接口并使用注解的方式来配置它(以前是Dao接口上面标注Mapper注解,现在是一个微服务接口上标准一个Feign注解即可),即可完成对服务提供方的接口绑定,简化了使用Spring Cloud Ribbon时,自动封装服务调用客户端开发量。
Feign集成了Ribbon
利用Ribbon维护额Payment的服务列表信息,并且通过轮询实现了客户端的负载均衡。而与Ribbon不同的是,通过fegin只需要定义服务绑定接口且以声明式的方法,优雅而简单的实现了服务调用
就是A要调用B,Feign就是在A中创建一个一模一样的B对外提供服务的的接口,我们调用这个接口,就可以服务到B
Feign与OpenFeign区别
Feign | OpenFeign |
---|---|
Feign是Spring Cloud组件中的一个轻量级RESTful的HTTP服务客户端,Feign内置了Ribbon,用来做客户端负载均衡,去调用服务注册中心的服务。Feign的使用方式是:使用Feign的注解定义接口,调用这个接口,就可以调用服务注册中心的服务 | OpenFeign是Spring Cloud在Feign的基础上支持了SpringMVC的注解,如@RequestMapping等等。OpenFeign的@FeignClient可以解析SpringMVC的@RequestMapping注解下的接口,并通过动态代理的方式产生实现类,实现类中做负载均衡并调用其他服务。 |
使用OpenFeign
之前的服务间调用,我们使用的是ribbon+RestTemplate
现在改为使用Feign
1,新建一个order项目,用于feign测试
名字cloud_order_feign-80
2,pom文件
3,配置文件
server:
port: 80
spring:
application:
name: cloud-order-service
eureka:
client:
register-with-eureka: true
fetch-registry: true
service-url:
defaultZone: http://localhost:7001/eureka/
# defaultZone: http://eureka7001.com:7001/eureka/,http://eureka7002.com:7002/eureka/
4,主启动类
@SpringBootApplication
@EnableFeignClients
public class OrderFeiginMain80 {
public static void main(String[] args) {
SpringApplication.run(OrderFeiginMain80.class,args);
}
}
5,fegin需要调用的其他的服务的接口
@Component
@FeignClient(name = "CLOUD-PAYMENT-SERVICE"/*指定这个接口对应要调用的微服务的服务名称*/,configuration = FeignLogLevelConfig.class)
public interface PaymentFeignService {
@GetMapping(value = "/payment/getPaymentByid/{id}")
CommonResult getPaymentByid(@PathVariable("id") String id);
@GetMapping(value = "/payment/feign/timout")
String paymentFeignTimemout();
}
6,controller
@RestController
@Slf4j
public class OrderFeignController {
@Resource
private PaymentFeignService paymentFeignService;
@GetMapping(value = "/payment/get/{id}")
public CommonResult<Payment> getPaymentById(@PathVariable("id") String id){
return paymentFeignService.getPaymentByid(id);
}
}
7测试:
启动两个erueka(7001,7002)
启动两个pay(8001,8002)
启动当前的order模块
Feign默认使用ribbon实现负载均衡
OpenFeign超时机制:
OpenFeign默认等待时间是1秒,超过1秒,直接报错
1,设置超时时间,修改配置文件:
因为OpenFeign的底层是ribbon进行负载均衡,所以它的超时时间是由ribbon控制
#设置feign客户端超时时间,(OpenFeign默认支持ribbon)
ribbon:
#指的是建立连接所用的时间,适用于网络状况正常的情况下,两端连接所用的时间
ReadTimeout: 5000
#指的是建立连接后从服务器读取到可用资源所用的时间,默认为5秒
ConnectTimeout: 5000
OpenFeign日志:
Feign提供了日志打印功能,我们可以通过配置来调整日志级别,从而了解Feign中Http请求的细节。说白了就是对Feign接口的调用情况进行监控和输出
OpenFeign的日志级别有:
public static enum Level {
NONE,
BASIC,
HEADERS,
FULL;
private Level() {
}
}
1,使用OpenFeign的日志:
实现在配置类中添加OpenFeign的日志类
@Configuration
public class FeignLogLevelConfig {
@Bean
public Logger.Level feignLoglevelConfig(){
return Logger.Level.FULL;
}
}
2,为指定类设置日志级别:
@Component
@FeignClient(name = "CLOUD-PAYMENT-SERVICE",configuration = FeignLogLevelConfig.class)
public interface PaymentFeignService {
}
配置文件中:
logging:
# 开启OpenFeign的日志功能,设置日志级别
level:
#feign日志以什么级别监控哪个接口
com.atguigu.springcloud.service.PaymentFeignService: debug
3,启动服务即可
4.服务降级:
12,Hystrix服务降级
服务雪崩
多个微服务之间调用的时候,假设微服务A调用微服务B和微服务C,微服务B和微服务C又调用了其他的微服务。这就是所谓的"扇出"。如果扇出的链路上某个微服务的调用响应时间过长或者不可用,对微服务A的调用就会占用越来越多的系统资源,进而引起系统崩溃,所谓的"雪崩效应"。
对于高流量的应用来说,单一的后端依赖可能会导致所有服务器上的所有资源都会在几秒内饱和。比失败更糟糕的是,这些应用程序还可能导致服务之间的延迟增加,备份队列,线程和其他系统资源紧张,导致整个系统发生更多的级联故障。这些都表示需要对故障和延迟进行隔离和管理,以便单个依赖关系的失败,不能取消整个应用程序或系统。
所以,通常当你发现一个模块下的某个实例失败后,这时候这个模块依然还会接收流量,然后这个有问题的模块还调用了其他的模块,这样就会发生级联故障,或者叫雪崩。
Hystrix是一个用于处理分布式系统的延迟和容错的开源库,在分布式系统里,许多依赖不可毕淼的会调用失败,比如超时、异常等,Hystrix能够保证在一个依赖出问题的情况下,不会导致整体服务失败,避免级联故障,以提高分布式系统的弹性。
"断路器"本身是一种开关装置,当某个服务单元发生故障之后,通过断路器的故障监控(类似熔断保险丝),向调用方返回一个符合预期的、可处理的备选响应(Fallback),而不是长时间的等待或者抛出调用方无法处理的异常,这样就保证了服务调用方的线程不会被长时间、不必要地占用,从而避免了故障在分布式系统中的蔓延,乃至雪崩。
hystrix中的重要概念:
1,服务降级
比如当某个服务繁忙,不能让客户端的请求一直等待,应该立刻返回给客户端一个备选方案
2,服务熔断
当某个服务出现问题,卡死了,不能让用户一直等待,需要关闭所有对此服务的访问,然后调用服务降级**
3,服务限流
限流,比如秒杀场景,不能访问用户瞬间都访问服务器,限制一次只可以有多少请求
使用hystrix,服务降级:
1,创建带降级机制的pay模块 :
名字: cloud-hystrix-pay-8007
2,pom文件
3,配置文件
server:
port: 8001
spring:
application:
name: cloud-provider-hystrix-payment
eureka:
client:
register-with-eureka: true
fetch-registry: true
service-url:
defaultZone: http://eureka7001.com:7001/eureka/
4,主启动类
@SpringBootApplication
@EnableEurekaClient
public class PaymentHystrix8001 {
public static void main(String[] args) {
SpringApplication.run(PaymentHystrix8001.class, args);
}
}
5,service
@Service
public class PaymentHystrixService {
//服务降级
public String payment_ok(Integer id) {
return "线程池:" + Thread.currentThread().getName() + "payment_ok, id: " + id + "\t" + "哈哈";
}
public String payment_timeout(Integer id) {
int time = 13;
try {
TimeUnit.SECONDS.sleep(time);
} catch (InterruptedException e) {
e.printStackTrace();
}
return "线程池:" + Thread.currentThread().getName() + "payment_timeout, id: " + id + "\t" + "哈哈" + "耗时:" + time + "秒";
}
}
6controller
@RestController
@Slf4j
public class paymentController {
@Resource
private PaymentHystrixService paymentHystrixService;
@Value("${server.port}")
private String sererPort;
@GetMapping(value = "/payment/hystrix/ok/{id}")
public String paymentInfo_ok(@PathVariable("id") Integer id) {
String result = paymentHystrixService.payment_ok(id);
log.info(">>>>>>result:" + result);
return result;
}
@GetMapping(value = "/payment/hystrix/timeout/{id}")
public String paymentInfo_timeout(@PathVariable("id") Integer id) {
String result = paymentHystrixService.payment_timeout(id);
log.info(">>>>>>result:" + result);
return result;
}
}
7,先测试:
此时使用压测工具,并发20000个请求,请求会延迟的那个方法,
压测中,发现,另外一个方法并没有被压测,但是我们访问它时,却需要等待
这就是因为被压测的方法它占用了服务器大部分资源,导致其他请求也变慢了
8,先不加入hystrix,
2,创建带降级的order模块:
1,名字: cloud-hystrix-order-80
2,pom
3,配置文件
server:
port: 80
spring:
application:
name: cloud-order-hystrix-feign-service
eureka:
client:
register-with-eureka: true
fetch-registry: true
service-url:
defaultZone: http://eureka7001.com:7001/eureka/
4,主启动类
@SpringBootApplication
@EnableFeignClients
@EnableHystrix
@EnableCircuitBreaker
public class OrderHystrixFeignMain80 {
public static void main(String[] args) {
SpringApplication.run(OrderHystrixFeignMain80.class,args);
}
}
5,远程调用pay模块的接口:
@Component
@FeignClient(value = "CLOUD-PROVIDER-HYSTRIX-PAYMENT")
public interface PaymentFeignService {
@GetMapping(value = "/payment/hystrix/ok/{id}")
String paymentInfo_ok(@PathVariable("id") String id);
@GetMapping(value = "/payment/hystrix/timeout/{id}")
String paymentInfo_timeout(@PathVariable("id") Integer id);
}
6,controller:
@Slf4j
@RestController
public class OrderHystrixFeiginController {
@Resource
private PaymentFeignService paymentFeignService;
@GetMapping("/consumer/hystrix/paymentok/{id}")
public String paymentInfo_ok(@PathVariable("id") String id){
String result = paymentFeignService.paymentInfo_ok(id);
return result;
}
@GetMapping("/consumer/hystrix/paymenttimeout/{id}")
public String paymentFeignTimemout(@PathVariable("id") Integer id) {
String s = paymentFeignService.paymentInfo_timeout(id);
return s;
}
}
7,测试
启动order模块,访问pay
再次压测2万并发,发现order访问也变慢了
问题现象:
8000同一层次的其他接口服务被困死,因为tomcat线程池里面的工作线程已经被挤占完毕,80此时调用8001,客户端访问响应缓慢,转圈圈
解决:
调用者(80)自己出故障或有自我要求(自己的等待时间小于服务提供者),自己处理降级
3,配置服务降级:
1,修改pay模块
1,为service的指定方法(会延迟的方法)添加@HystrixCommand注解
2,主启动类上,添加激活hystrix的注解
3,触发异常
可以看到,也触发了降级
2,修改order模块,进行服务降级
一般服务降级,都是放在客户端(order模块),
我们自己配置过的热部署方式对Java代码的改动明显,但对@HystrixCommand内属性的修改建议重启微服务
1,修改配置文件:
feign:
hystrix:
enabled: true
2,主启动类添加直接,启用hystrix:
3,修改controller,添加降级方法什么的
4,测试
启动pay模块,order模块,
注意:,这里pay模块和order模块都开启了服务降级
但是order这里,设置了1.5秒就降级,所以访问时,一定会降级
4,重构:
上面出现的问题:
1,降级方法与业务方法写在了一块,耦合度高
2.每个业务方法都写了一个降级方法,重复代码多
解决重复代码的问题:
配置一个全局的降级方法,所有方法都可以走这个降级方法,至于某些特殊创建,再单独创建方法
1,创建一个全局方法
public String paymentglobalHandler() {
return "我是消费者order80的全局handler" + "哈哈~~~~+++++";
}
2,使用注解指定其为全局降级方法(默认降级方法)
3,业务方法使用默认降级方法:
4,测试:
解决代码耦合度的问题:
修改order模块,这里开始,pay模块就不服务降级了,服务降级写在order模块即可
1,Payservice接口是远程调用pay模块的,我们这里创建一个类实现service接口,在实现类中统一处理异常
2,修改配置文件:添加:
feign:
hystrix:
enabled: true
3,让PayService的实现类生效:
它的运行逻辑是:
当请求过来,首先还是通过Feign远程调用pay模块对应的方法
但是如果pay模块报错,调用失败,那么就会调用PayMentFalbackService类的
当前同名的方法,作为降级方法
4,启动测试
启动order和pay正常访问--ok
此时将pay服务关闭,order再次访问
可以看到,并没有报500错误,而是降级访问实现类的同名方法
这样,即使服务器挂了,用户要不要一直等待,或者报错
问题:
这样虽然解决了代码耦合度问题,但是又出现了过多重复代码的问题,每个方法都有一个降级方法
使用服务熔断:
类比保险丝达到最大服务访问后,直接拒接访问,拉闸限电,然后调用服务降级的方法并返回友好提示。
比如并发达到1000,我们就拒绝其他用户访问,在有用户访问,就访问降级方法
熔断机制概述
熔断机制是应对雪崩效应的一种微服务链路保护机制。当扇出链路的某个微服务出错不可用或响应时间太长时,会进行服务的降级,进而熔断该节点微服务的调用,快速返回错误的响应信息。
当检测到该节点微服务调用响应正常后,恢复调用链路。
在Spring Cloud框架里,熔断机制通过Hystrix实现。Hystrix会监控微服务间调用的状况,当失败的调用到一定阈值,缺省是5秒内20次调用失败,就会启动熔断机制。熔断机制的注解是@HystrixCommand。
1,修改前面的pay模块
1,修改Payservice接口,添加服务熔断相关的方法:
这里属性整体意思是:
10秒之内(窗口,会移动),如果并发超过10个,或者10个并发中,失败了6个,就开启熔断器
IdUtil是Hutool包下的类,这个Hutool就是整合了所有的常用方法,比如UUID,反射,IO流等工具方法什么的都整合了
断路器的打开和关闭,是按照一下5步决定的
1,并发此时是否达到我们指定的阈值
2,错误百分比,比如我们配置了60%,那么如果并发请求中,10次有6次是失败的,就开启断路器
3,上面的条件符合,断路器改变状态为open(开启)
4,这个服务的断路器开启,所有请求无法访问
5,在我们的时间窗口期,期间,尝试让一些请求通过(半开状态),如果请求还是失败,证明断路器还是开启状态,服务没有恢复
如果请求成功了,证明服务已经恢复,断路器状态变为close关闭状态
2,修改controller
添加一个测试方法;
3,测试:
启动pay,order模块
多次访问,并且错误率超过60%:
此时服务熔断,此时即使访问正确的也会报错:
但是,当过了几秒后,又恢复了
因为在10秒窗口期内,它自己会尝试接收部分请求,发现服务可以正常调用,慢慢的当错误率低于60%,取消熔断
Hystrix所有可配置的属性:
全部在这个方法中记录,以成员变量的形式记录,
以后需要什么属性,查看这个类即可
总结:
当断路器开启后:
其他参数:
熔断整体流程:
1 请求进来,首先查询缓存,如果缓存有,直接返回
如果缓存没有,--->2
2 查看断路器是否开启,如果开启的,Hystrix直接将请求转发到降级返回,然后返回
如果断路器是关闭的,
判断线程池等资源是否已经满了,如果已经满了
也会走降级方法
如果资源没有满,判断我们使用的什么类型的Hystrix,决定调用构造方法还是run方法
然后处理请求
然后Hystrix将本次请求的结果信息汇报给断路器,因为断路器此时可能是开启的
(因为断路器开启也是可以接收请求的)
断路器收到信息,判断是否符合开启或关闭断路器的条件,
如果本次请求处理失败,又会进入降级方法
如果处理成功,判断处理是否超时,如果超时了,也进入降级方法
最后,没有超时,则本次请求处理成功,将结果返回给controller
Hystrix服务监控:
HystrixDashboard
除了隔离依赖服务的调用以外,Hystrix还提供了准实时的调用监控(Hystrix Dashboard),Hystrix会持续地记录所有通过Hystrix发起的请求的执行信息,并以统计报表和图形的形式展示给用户,包括每秒执行多少请求多少成功,多少失败等。Netflix通过hystrix-metrics-event-stream项目实现了对以上指标的监控。Spring Cloud也提供了Hystrix Dashboard的整合,对监控内容转化成可视化界面。
2,使用HystrixDashboard:
1,创建项目:
名字: cloud_hystrixdashboard_9001
2,pom文件
3,配置文件
server:
port: 9000
4,主启动类
5,修改所有pay模块(8001,8002,8003...)
他们都添加一个pom依赖:
<dependency>
<!-- actuator监控信息完善-->
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-actuator</artifactId>
</dependency>
之前的pom文件中都添加过了,这个是springboot的监控组件
6,启动9001即可
访问: localhost:9001/hystrix
7,注意,此时仅仅是可以访问HystrixDashboard,并不代表已经监控了8001,8002
如果要监控,还需要配置:(8001为例)
8001的主启动类添加:
其他8002,8003都是一样的
8,到此,可以启动服务
启动7001,8001,9001
然后在web界面,指定9001要监控8001:
5.服务网关:
zuul停更了,
13,GateWay
Gateway是在Spring生态系统之上构建的API网关服务,基于Spring 5,Spring Boot 2 和Project Reactor等技术。Gateway旨在提供一种简单而有效的方式来对API进行路由,以及提供一些强大的过滤器功能,例如:熔断、限流、重试等。
gateway之所以性能好,因为底层使用WebFlux,而webFlux底层使用netty通信(NIO)
GateWay的特性:
GateWay与zuul的区别:
zuul1.x的模型:
什么是webflux:
是一个非阻塞的web框架,类似springmvc这样的
GateWay的一些概念:
1,路由:
路由是构建网关的基本模块,它由ID,目标URI,一系列的断言和过滤器组成,如果断言为true则匹配该路由
就是根据某些规则,将请求发送到指定服务上
2,断言:
参考的是Java8的java.util.function.Predicate
开发人员可以匹配HTTP请求中的所有内容(例如请求头或请求参数),如果请求与断言相匹配则进行路由。
就是判断,如果符合条件就是xxxx,反之yyyy
3,过滤:
指的是Spring框架中GatewayFilter的实例,使用过滤器,可以在请求被路由前或之后对请求进行修改。
路由前后,过滤请求
GateWay的工作原理:
客户端向Spring Cloud Gateway发出请求。然后在Gateway Handler Mapping(类似MVC的映射器)中找到与请求相匹配的路由,将其发送到Gateway Web Handler。
Handler再通过指定的过滤器链来将请求发送到我们实际的服务执行业务逻辑,然后返回。
过滤器之间用虚线分开是因为过滤器可能会在发送代理请求之前("pre")或之后("post")执行业务逻辑。
Filter在"pre"类型的过滤器可以做参数校验、权限校验、流量监控、日志输出、协议转换等,在"post"类型的过滤器中可以做响应内容、响应头的修改,日志的输出、流量监控等有着非常重要的作用。
使用GateWay:
想要新建一个GateWay的项目
名字: cloud_gateway_9527
1,pom
2,配置文件
3,主启动类
@SpringBootApplication
@EnableEurekaClient
@EnableDiscoveryClient
public class Gateway9572 {
public static void main(String[] args) {
SpringApplication.run(Gateway9572.class,args);
}
}
4,针对pay模块,设置路由:
我们目前不想暴露8001端口,希望在8001外面套一层9527
修改GateWay模块(9527)的配置文件:
这里表示,
当访问localhost:9527/payment/get/1时,
路由到localhost:8001/payment/get/1
5,开始测试
启动7001,8001,9527
如果启动GateWay报错
可能是GateWay模块引入了web和监控的starter依赖,需要移除
访问:
localhost:9527/payment/get/1
6,GateWay的网关配置,
GateWay的网关配置,除了支持配置文件,还支持硬编码方式
7,使用硬编码配置GateWay:
创建配置类:
8,然后重启服务即可
重构:
上面的配置虽然首先了网关,但是是在配置文件中写死了要路由的地址
现在需要修改,不指定地址,而是根据微服务名字进行路由,我们可以在注册中心获取某组微服务的地址
需要:
1个eureka,2个pay模块
修改GateWay模块的配置文件:
然后就可以启动微服务.测试
Pridicate断言:
Spring Cloud Gateway将路由匹配作为Spring WebFlux HandlerMapping基础架构的一部分。
Spring Cloud Gateway包括许多内置的Route Predicate工厂。所有这些Predicate都与HTTP请求的不同属性匹配。多个Route Predicate可以进行组合
Spring Cloud Gateway创建Route对象时,使用RoutePredicateFactory创建Predicate对象,Predicate对象可以赋值给Route。Spring Cloud Gateway包含许多内置的Route Predicate Factories。
所有这些谓词都匹配HTTP请求的不同属性。多种谓词工厂可以组合,并通过逻辑and。
我们之前在配置文件中配置了断言:
routes:
- id: payment_route #路由的ID,没有固定规则但要求唯一
uri: lb://cloud-payment-service #匹配后提供服务的路由地址
#uri: http://localhost:8001
predicates:
- Path= /payment/getPaymentByid/** #断言,路径相匹配的进行路由
这个断言表示,如果外部访问路径是指定路径,就路由到指定微服务上
可以看到,这里有一个Path,这个是断言的一种,断言的类型:
After:
可以指定,只有在指定时间后,才可以路由到指定微服务
- id: payment_route2 #路由的ID,没有固定规则但要求唯一
uri: lb://cloud-payment-service #匹配后提供服务的路由地址
# uri: http://localhost:8001
predicates:
- Path= /payment/lb/** #断言,路径相匹配的进行路由
- After=2021-11-24T16:41:45.278+08:00[Asia/Shanghai]
这里表示,只有在2020年的2月21的15点51分37秒之后,访问才可以路由
在此之前的访问,都会报404
如何获取当前时区?
public static void main(String[] args) {
final ZonedDateTime now = ZonedDateTime.now();//默认时区
System.out.println(now);
}
before:
与after类似,他说在指定时间之前的才可以访问
between:
需要指定两个时间,在他们之间的时间才可以访问
cookie:
只有包含某些指定cookie(key,value),的请求才可以路由
Header:
只有包含指定请求头的请求,才可以路由
测试:
host:
只有指定主机的才可以访问,
比如我们当前的网站的域名是www.aa.com
那么这里就可以设置,只有用户是www.aa.com的请求,才进行路由
- Host=**.somehost.org,**.anotherhost.org
Host Route Predicate接收一组参数,一组匹配的域名列表,这个模板是一个ant分割的模板,用.号作为分隔符。它通过参数中的主机地址作为匹配规则。
可以看到,如果带了域名访问,就可以,但是直接访问ip地址.就报错了
method:
只有指定请求才可以路由,比如get请求...
- id: method_route
uri: https://www.example.org
predicates:
- Method=GET
path:
只有访问指定路径,才进行路由
比如访问,/abc才路由
- id: payment_route2
uri: lb://cloud-payment-service
# uri: http://localhost:8001
predicates:
- Path= /payment/lb/**
Query:
必须带有请求参数才可以访问
Filter过滤器:
路由过滤器可用于修改进入的HTTP请求和返回的HTTP响应,路由过滤器只能指定路由进行使用。Spring Cloud Gateway内置了多种路由过滤器,他们都由GatewayFilter的工厂类来产生
生命周期:
在请求进入路由之前,和处理请求完成,再次到达路由之前
种类:
GateWayFilter,单一的过滤器
与断言类似,比如闲置,请求头,只有特定的请求头才放行,反之就过滤:
GlobalFilter,全局过滤器:
自定义过滤器:
实现两个接口
然后启动服务,即可,因为过滤器通过@Component已经加入到容器了
6.服务配置:
Spring Config分布式配置中心:
微服务面临的问题
可以看到,每个微服务都需要一个配置文件,并且,如果有几个微服务都需要连接数据库
那么就需要配4次数据库相关配置,并且当数据库发生改动,那么需要同时修改4个微服务的配置文件才可以
所以有了springconfig配置中心
SpringCloud Config为微服务架构中的微服务提供集中化的外部配置支持,配置服务器为各个不同微服务应用的所有环境提供了一个中心化的外部匹配。
使用配置中心:
0,使用github作为配置中心的仓库:
初始化git环境:
1,新建config模块:
名字: cloud-config-3344
2,pom
3,配置文件
4,主启动类
5,修改hosts:
6,配置完成
测试,3344是否可以从github上获取配置
启动3344 (要先启动eureka)
它实际上就是,读取到配置文件中的GitHub的地址,然后拼接上/master/config-dev.yml
7,读取配置文件的规则:
2,
这里默认会读取master分支,因为我们配置文件中配置了
3
注意,这个方式读取到的配置是json格式的
所有规则:
2,创建配置中心客户端:
1,创建config客户端项目
名字: cloud-config-client-3355
2,pom
3,配置文件
注意这个配置文件就不是application.yml
而是bootstrap.yml
这个配置文件的作用是,先到配置中心加载配置,然后加载到application.yml中
4,主启动类:
5,controller类
就是上面提到的,以rest风格将配置对外暴露
如果客户端运行正常,就会读取到github上配置文件的,config.info下的配置
6,测试:
启动3344,3355
访问3355的 /configInfo
7,问题::
上面3355确实获取到了配置文件,但是如果此时配置文件修改了,3355是获取不到的
3344可以实时获取到最新配置文件,但是3355却获取不到
除非重启服务
8,实现动态刷新:
1,修改3355,添加一个pom依赖:
2,修改配置文件,添加一个配置:
3,修改controller:
4,此时重启服务
此时3355还不可以动态获取
因为此时,还需要外部发送post请求通知3355
此时在刷新3355,发现可以获取到最新的配置文件了,这就实现了动态获取配置文件,因为3355并没有重启
具体流程就是:
我们启动好服务后
运维人员,修改了配置文件,然后发送一个post请求通知3355
3355就可以获取最新配置文件
问题:
如果有多个客户端怎么办(3355,3356,3357.....)
虽然可以使用shell脚本,循环刷新
但是,可不可以使用广播,一次通知??
这些springconfig做不到,需要使用springcloud Bus消息总线
7.消息总线:
SpringCloud Bus:
注意,这里两张图片,就代表两种广播方式
图1: 它是Bus直接通知给其中一个客户端,由这个客户端开始蔓延,传播给其他所有客户端
图2: 它是通知给配置中心的服务端,有服务端广播给所有客户端
为什么被称为总线?
什么是总线
在微服务架构的系统中,通常会使用轻量级的消息代理来构建一个公用的消息主题,并让系统中所有微服务实例都连接上来。由于该主题中产生的消息会被所有实例监听和消费,所以称它为消息总线。在总线上的各个实例,都可以方便地广播一些需要让其他连接在该主题上的实例都知道的消息。
基本原理
ConfigClient实例都监听MQ中同一个topic(默认是SpringCloudBus)。当一个服务刷新数据的时候,它会把这个信息放入到Topic中,这样其他监听同一Topic的服务就能得到通知,然后去更新自身的配置。
就是通过消息队列达到广播的效果
我们要广播每个消息时,主要放到某个topic中,所有监听的节点都可以获取到
使用Bus:
1,配置rabbitmq环境:
2,之前只有一个配置中心客户端,这里在创建一个
复制3355即可,创建为3366
全部复制3355的即可
2,使用Bus实现全局广播
Bus广播有两种方式:
就是上面两个图片的两种方式
这两种方式,第二种跟合适,因为:
第一种的缺点:
配置第二种方式:
1,配置3344(配置中心服务端):
1,修改配置文件:
2,添加pom
springboot的监控组件,和消息总线
2,修改3355(配置中心的客户端)
1,pom:
2,配置文件:
注意配置文件的名字,要改为bootstrap.yml
3,修改3366(也是配置中心的客户端)
修改与3355是一模一样的
4,测试
启动7001,3344,3355,3366
此时修改GitHub上的配置文件
此时只需要刷新3344,即可让3355,3366动态获取最新的配置文件
其原理就是:
所有客户端都监听了一个rabbitMq的topic,我们将信息放入这个topic,所有客户端都可以送到,从而实时更新
配置定点通知
就是只通知部分服务,比如只通知3355,不通知3366
只通知3355
可以看到,实际上就是通过微服务的名称+端口号进行指定
8.消息驱动:
Spring Cloud Stream:
现在一个很项目可能分为三部分:
前端--->后端---->大数据
而后端开发使用消息中间件,可能会使用RabbitMq
而大数据开发,一般都是使用Kafka,
那么一个项目中有多个消息中间件,对于程序员,因为人员都不友好
而Spring Cloud Stream就类似jpa,屏蔽底层消息中间件的差异,程序员主要操作Spring Cloud Stream即可
不需要管底层是kafka还是rabbitMq
什么是Spring Cloud Stream
Spring Cloud Stream是怎么屏蔽底层差异的?
绑定器:
Spring Cloud Streamd 通信模式:
Spring Cloud Stream的业务流程:
类似flume中的channel,source,sink 估计是借鉴(抄袭)的
source用于获取数据(要发送到mq的数据)
channel类似SpringCloudStream中的中间件,用于存放source接收到的数据,或者是存放binder拉取的数据
常用注解和api:
使用SpringCloudStream:
需要创建三个项目,一个生产者,两个消费者
1,创建生产者
1,pom
2,配置文件
3,主启动类
4,service和实现类
service定义发送消息
这里,就会调用send方法,将消息发送给channel,然后channel将消费发送给binder,然后发送到rabbitmq中
5,controller
6,可以测试
启动rabbitmq
启动7001,8801
确定8801后,会在rabbitmq中创建一个Exchange,就是我们配置文件中配置的exchange
访问8801的/sendMessage
创建消费者:
1,pom文件
2,配置文件
这里排版一点问题
input就表示,当前服务是一个消费者,需要消费消息,下面就是指定消费哪个Exchange中的消息
3,主启动类
4,业务类(消费数据)
生产者发送消息时,使用send方法发送,send方法发送的是一个个Message,里面封装了数据
5,测试:
启动7001.8801.8802
此时使用生产者生产消息
可以看到,消费者已经接收到消息了
创建消费者2
创建8803,
与8802创建一模一样,就不写了
创建8803主要是为了演示重复消费等问题
...
....
...
重复消费问题:
此时启动7001.8801.8802.8803
此时生产者生产一条消息
但是此时查询消费者,发现8802,8803都消费到了同一条数据
1,自定义分组
修改8802,8803的配置文件
现在将8802,8803都分到了A组
然后去重启02,03
然后此时生产者生产两条消息
可以看到,每人只消费了一条消息,并且没有重复消费
持久化问题:
就是当服务挂了,怎么消费没有消费的数据??
这里,先将8802移除A组,
然后将02,03服务关闭
此时生产者开启,发送3条消息
此时重启02,03
可以看到,当02退出A组后,它就获取不到在它宕机的时间段内的数据
但是03重启后,直接获取到了宕机期间它没有消费的数据,并且消费了
总结:
也就是,当我们没有配置分组时,会出现消息漏消费的问题
而配置分组后,我们可以自动获取未消费的数据
9.链路追踪:
Spring Cloud Sleuth
sleuth要解决的问题:
而sleuth就是用于追踪每个请求的整体链路
使用sleuth:
1.安装zipkin:
运行jar包
java -jar xxxx.jar
然后就可以访问web界面, 默认zipkin监听的端口是9411
localhost:9411/zipkin/
一条链路完整图片:
精简版:
可以看到,类似链表的形式
2,使用sleuth:
不需要额外创建项目,使用之前的8001和order的80即可
1,修改8001
引入pom:
这个包虽然叫zipkin但是,里面包含了zpikin与sleuth
修改配置文件:
2,修改80
添加pom
与上面是一样的
添加配置:
与上面也是一样的
3,测试:
启动7001.8001,80,9411
10.Spring CloudAlibaba:
之所以有Spring CloudAlibaba,是因为Spring Cloud Netflix项目进入维护模式,也就是,就不是不更新了,不会开发新组件了,所以,某些组件都有代替版了,比如Ribbon由Loadbalancer代替,等等
支持的功能
- 服务限流降级:默认支持Servlet、Feign、RestTemplate、Dubbo和RocketMQ限流降级功能的接入,可以在运行时通过控制台实时修改限流降级规则,还支持查看限流降级Metrics监控。
- 服务注册与发现:适配Spring Cloud服务注册与发现标准,默认集成了Ribbon的支持。
- 分布式配置管理:支持分布式系统中的外部化配置,配置更改时自动刷新。
- 消息驱动能力:基于Spring Cloud Stream为微服务应用构建消息驱动能力。
- 阿里云对象存储:阿里云提供的海量、安全、低成本、高可靠的云存储服务。支持在任何应用、任何时间、任何地点存储和访问任意类型的数据。
- 分布式任务调度:提供秒级、精准、高可靠、高可用的定时(基于Cron表达式)任务调度服务。同时提供分布式的任务执行模型,如网格任务。网格任务支持海量子任务均匀分配到所有Worker(schedulerx-client)上执行。
几乎可以将之前的Spring Cloud代替
具体组件:
Sentinel
阿里巴巴开源产品,把流量作为切入点,从流量控制、熔断降级、系统负载保护等多个维度保护服务的稳定性。
Nacos
阿里巴巴开源产品,一个更易于构建云原生应用的动态服务发现、配置管理和服务管理平台。
RocketMQ
Apache RocketMQ 基于Java的高性能、高吞吐量的分布式消息和流计算平台。
Dubbo
Apache Dubbo是一个高性能的Java RPC框架。
Seata
阿里巴巴开源产品,一个易于使用的高性能微服务分布式事务解决方案。
Alibaba Cloud OSS
阿里云对象存储服务(Object Storage Service,简称OSS),是阿里云提供的海量、安全、低成本、高可靠的云存储服务。您可以在认可应用、任何时间、任何地点存储和访问任意类型的数据。
Nacos:
服务注册和配置中心的组合
Nacos=erueka+config+bus
安装Nacos:
需要java8 和 Maven
1,到github上下载安装包
解压安装包
2,启动Nacos
在bin下,进入cod
./startup.cmd
3,访问Nacos
Nacos默认监听8848
localhost:8848/nacos
账号密码:默认都是nacos
使用Nacos:
新建pay模块
现在不需要额外的服务注册模块了,Nacos单独启动了
名字: cloudalibaba-pay-9001
1,pom
父项目管理alibaba的依赖:
9001的pom:
另外一个文件.....
2,配置文件
3,启动类
4,controller:
5,测试
启动9001
然后查看Nacos的web界面,可以看到9001已经注册成功
创建其他Pay模块
额外在创建9002,9003
直接复制上面的即可
创建order模块
名字: cloudalibaba-order-83
1,pom
为什么Nacos支持负载均衡?
Nacos直接集成了Ribon,所以有负载均衡
2,配置文件
这个server-url的作用是,我们在controller,需要使用RestTempalte远程调用9001,这里是指定9001的地址
3,主启动类
4,编写配置类
因为Naocs要使用Ribbon进行负载均衡,那么就需要使用RestTemplate
@Configuration
public class NacosConfig {
@Bean
@LoadBalanced
public RestTemplate restTemplate() {
return new RestTemplate();
}
}
5,controller:
@RestController
@Slf4j
public class Order83Controller {
@Resource
private RestTemplate restTemplate;
@Value("${service-url.nacos-user-service}")
private String serviceUrl;
@Autowired
private PaymentService paymentService;
@GetMapping("/consumer/payment/nacos")
public String getServerPort(){
return restTemplate.getForObject(serviceUrl+"/payment/nacos", String.class);
}
@GetMapping("/consumer/payment/nacosfeign")
public String getServerPort1(){
return paymentService.getFromNacos();
}
}
6,测试
启动83,访问9001,9002,可以看到,实现了负载均衡
Nacos与其他服务注册的对比
Nacos它既可以支持CP,也可以支持AP,可以切换
何时选择使用何种模式?
一般来说,如果不需要存储服务级别的信息且服务实例是通过nacos-client注册,并能够保存心跳上报,那么就可以选择AP模式。当前主流的服务如Spring Cloud和Dubbo服务,都适用于AP模式,AP模式为了服务的可能性而减弱了一致性,因此AP模式下只支持注册临时实例。
如果需要在服务级别编辑或存储配置信息,那么CP是必须,K8S服务和DNS服务则适用于CP模式。
CP模式下则支持注册持久化实例,此时则是以Raft协议为集群运行模式,该模式下注册实例之前必须先注册服务,如果服务不存在,则会返回错误。
下面这个curl命令,就是切换模式
curl -X PUT '$NACOS_SERVER:8848/nacos/v1/ns/operator/switches?entry=serverMode&value=CP'
使用Nacos作为配置中心:
Nacos同Spring Cloud Config一样,在项目初始化时,要保证先从配置中心进行配置拉取,拉取配置之后,才能保证项目的正常启动
SpringBoot中配置文件的加载是存在优先级顺序的,bootstrap优先级高于application
需要创建配置中心的客户端模块
cloudalibaba-Nacos-config-client-3377
1.pom
2.配置文件
这里需要配置两个配置文件,application.yml和bootstarp.yml
主要是为了可以与spring cloud config无缝迁移
可以看到
3.主启动类
4.controller
可以看到,这里也添加了@RefreshScope
之前在Config配置中心,也是添加这个注解实现动态刷新的
通过Spring Cloud原生注解@RefreshScope实现配置自动更新
5,在Nacos添加配置信息:
Nacos的配置规则:
配置规则,就是我们在客户端如何指定读取配置文件,配置文件的命名的规则
默认的命名方式:
prefix:
默认就是当前服务的服务名称
也可以通过spring.cloud.necos.config.prefix配置
spring.profile.active:
就是我们在application.yml中指定的,当前是开发环境还是测试等环境
这个可以不配置,如果不配置,那么前面的-也会没有
file-extension
就是当前文件的格式(后缀),目前只支持yml和properties
在web UI上创建配置文件:
注意,DataId就是配置文件名字:
名字一定要按照上面的规则命名,否则客户端会读取不到配置文件
6,测试
重启3377客户端
访问3377
拿到了配置文件中的值
7,注意默认就开启了自动刷新
此时我们修改了配置文件
客户端是可以立即更新的
因为Nacos支持Bus总线,会自动发送命令更新所有客户端
Nacos配置中心之分类配置:
NameSpace默认有一个:public名称空间
这三个类似java的: 包名 + 类名 + 方法名
1,配置不同DataId:
通过配置文件,实现多环境的读取:
此时,改为dev,就会读取dev的配置文件,改为test,就会读取test的配置文件
2,配置不同的GroupID:
直接在新建配置文件时指定组
在客户端配置,使用指定组的配置文件:
这两个配置文件都要修改
重启服务,即可
配置不同的namespace:
客户端配置使用不同名称空间:
要通过命名空间id指定
OK,测试
Nacos集群和持久化配置:
Nacos默认有自带嵌入式数据库,derby,但是如果做集群模式的话,就不能使用自己的数据库
不然每个节点一个数据库,那么数据就不统一了,需要使用外部的mysql
默认Nacos使用嵌入式数据库实现数据的存储。所以,如果启动多个默认配置下的Nacos节点,数据存储是存在一致性问题的。为了解决这个问题,Nacos采用了集中式存储的方式来支持集群化部署,目前只支持Mysql的存储
Nacos支持三种部署模式
- 单机模式- 用于测试和单机试用。
- 集群模式-用于生产环境,确保高可用。
- 多集群模式- 用于多数据中心场景。
1,单机版,切换mysql数据库:
将nacos切换到使用我们自己的mysql数据库:
1,nacos默认自带了一个sql文件,在nacos安装目录下
将它放到我们的mysql执行
2,修改Nacos安装目录下的安排application.properties,添加:
数据库时区serverTimezone=UTC 可能会导致访问不到数据库
3,此时可以重启nacos,那么就会改为使用我们自己的mysql
Linux上配置Nacos集群+Mysql数据库
官方架构图:
需要一个Nginx作为VIP
1,下载安装Nacos的Linux版安装包
2,进入安装目录,现在执行自带的sql文件
进入mysql,执行sql文件
3.修改配置文件,切换为我们的mysql
就是上面windos版要修改的几个属性
### If use MySQL as datasource:
spring.datasource.platform=mysql
### Count of DB:
db.num=1
### Connect URL of DB:
db.url.0=jdbc:mysql://127.0.0.1:3306/nacos?characterEncoding=utf8&connectTimeout=1000&socketTimeout=3000&autoReconnect=true&useUnicode=true&useSSL=false
db.user=root
db.password=password
4,修改cluster.conf,指定哪几个节点是Nacos集群
必须与Linux中hostname - i 中的IP一致
这里使用3333,4444,5555作为三个Nacos节点监听的端口
5,我们这里就不配置在不同节点上了,就放在一个节点上
既然要在一个节点上启动不同Nacos实例,就要修改startup.sh,使其根据不同端口启动不同Nacos实例
可以看到,这个脚本就是通过jvm启动nacos
所以我们最后修改的就是,nohup java -Dserver.port=3344
6,配置Nginx:
server后的IP填127.0.0.1
7,启动Nacos:
nacos2.0.3 版本不用修改port,直接复制实例文件,然后修改cluster.conf文件中的IP和端口
./startup.sh -p 3333
./startup.sh -p 4444
./startup.sh -p 5555
7,启动nginx
8,测试:
访问192.168.159.121:1111或http://127.0.0.1:8848/nacos/
如果可以进入nacos的web界面,就证明安装成功了
9,将微服务注册到Nacos集群:
10,进入Nacos的web界面
可以看到,已经注册成功
Sentinel:
实现熔断与限流,就是Hystrix
使用sentinel
1.下载sentinel的jar包
2.运行sentinel
由于是一个jar包,所以可以直接java -jar运行
注意,默认sentinel占用8080端口
3.访问sentinel
localhost:8080
微服务整合sentinel
1.启动Nacos
2.新建一个项目8401,主要用于配置sentinel
-
pom
-
配置文件
- 主启动类
- controller
- 到这里就可以启动8401
此时我们到sentinel中查看,发现并没有8401的任何信息 是因为,sentinel是懒加载,需要我们执行一次访问,才会有信息。 访问localhost/8401/testA
- 可以看到已经开始监听了
sentinel的流控规则
流量限制控制规则
流控模式:
-
直接快速失败
- QPS(每秒钟的请求数量):当调用该api的QPS达到阈值的时候,进行限流
**直接失败的效果:**
-
线程数:
- 线程数:当调用该api的线程数达到阈值的时候,进行限流
比如a请求过来,处理很慢,在一直处理,此时b请求又过来了
此时因为a占用一个线程,此时要处理b请求就只有额外开启一个线程
那么就会报错
-
关联:
-
当关联的资源达到阈值时,就限流自己。
-
当与A关联的资源B达到阈值后,就限流A自己
-
B惹事,A挂了
应用场景: 比如支付接口达到阈值,就要限流下订单的接口,防止一直有订单
当testA达到阈值,qps大于1,就让testB之后的请求直接失败
可以使用postman压测
-
-
链路:
多个请求调用同一个微服务 -
预热Warm up:
应用场景
- 排队等待:
降级规则:
就是熔断降级
1.RT配置:
新增一个请求方法用于测试
配置RT:
这里配置的RT,默认是秒级的平均响应时间
默认计算平均时间是: 1秒类进入5个请求,并且响应的平均值超过阈值(这里的200ms),就报错
1秒5请求是Sentinel默认设置的
测试
默认熔断后.就直接抛出异常
2.异常比例:
- 异常比例(DEGRADE_GRADE_EXCEPTION_RATIO):当资源的每秒请求量>=5,并且每秒异常总数占通过量的比值超过阈值(DegradeRule中的count)之后,资源进入降级状态,即在接下的时间窗口(DegradeRule中的timeWindow,以s为单位)之内,对这个方法的调用都会自动地返回。异常比率的阈值范围是[0.0,1.0],代表0%-100%
修改请求方法
配置:
如果没触发熔断,这正常抛出异常:
触发熔断:
3.异常数:
- 异常数(DEGRADE_GRADE_EXCEPTIO_COUNT):当资源近1分钟的异常数目超过阈值之后会进行熔断。注意由于统计时间窗口是分钟级别的,若timeWindow小于60s,则结束熔断状态后仍可能再进入熔断状态。
- 时间窗口一定要大于等于60秒
一分钟之内,有5个请求发送异常,进入熔断
热点规则:
比如:
localhost:8080/aa?name=aa
localhost:8080/aa?name=b'b
加入两个请求中,带有参数aa的请求访问频次非常高,我们就现在name==aa的请求,但是bb的不限制
如何自定义降级方法,而不是默认的抛出异常?
兜底方法
分为系统默认和客户自定义两种
之前的case,限流出问题后,都是用sentinel系统默认的提示,Blocked by Sentinel(flow limiting)
我们能不能自定义?类似Hystrix,某个方法出问题了,就找对应的兜底降级方法?
结论
从HystrixCommand到@SentinelResource
使用@SentinelResource直接实现降级方法,它等同Hystrix的@HystrixCommand
定义热点规则:
此时我们访问/testHotkey并且带上才是p1
如果qps大于1,就会触发我们定义的降级方法
但是我们的参数是P2,就没有问题
只有带了p1,才可能会触发热点限流
2.设置热点规则中的其他选项:
需求:
测试
注意:
参数类型只支持,8种基本类型+String类
注意:
如果我们程序出现异常,是不会走blockHander的降级方法的,因为这个方法只配置了热点规则,没有配置限流规则
我们这里配置的降级方法是sentinel针对热点规则配置的
只有触发热点规则才会降级
@SentinelResource
处理的是Sentinel控制台配置的违规情况,有blockHandler方法配置的兜底处理;
RuntimeException
int age =10/0,这个是Java运行时报出的运行时异常RuntimeException,@SentinelResource不管
总结
@SentinelResource主管配置出错,运行出错该走异常,走异常
系统规则:
系统自适应限流:
从整体维度对应用入口进行限流
对整体限流,比如设置qps到达100,这里限流会限制整个系统不可以
测试:
@SentinelResource注解:
用于配置降级等功能
1,环境搭建
-
为8401添加依赖
添加我们自己的commone包的依赖
额外创建一个controller类
-
配置限流
注意,我们这里配置规则,资源名指定的是@SentinelResource注解value的值,
这样也是可以的,也就是不一定要指定访问路径
-
测试.
可以看到已经进入降级方法了
-
此时我们关闭8401服务
可以看到,这些定义的规则是临时的,关闭服务,规则就没有了
可以看到上面配置的降级方法又出现Hystrix遇到的问题了
降级方法与业务方法耦合
每个业务方法都需要对应一个降级方法
自定义限流处理逻辑:
-
单独创建一个类,用于处理限流
-
在controller中,指定使用自定义类中的方法作为降级方法
-
Sentinel中定义流控规则:
这里资源名,是以url指定,也可以使用@SentinelResource注解value的值指定
-
测试:
-
整体:
@SentinelResource注解的其他属性:
服务熔断:
-
启动nacos和sentinel
-
新建两个pay模块 9003和9004
-
pom
-
配置文件
*
-
主启动类
@SpringBootApplication @EnableDiscoveryClient public class PaymentMain9003 { public static void main(String[] args) { SpringApplication.run(PaymentMain9003.class,args); } }
-
controller
然后启动9003.9004
-
新建一个order-84消费者模块:
-
pom
与上面的pay一模一样
-
配置文件
-
主启动类
-
配置类
-
controller
- 为业务方法添加fallback来指定降级方法:
![](https://gitee.com/wowosong/pic-md/raw/master/202301032251460.png) 重启order 测试: ![](https://gitee.com/wowosong/pic-md/raw/master/202301032251611.png) 所以fallback是用于管理异常的,当业务方法发生异常,可以降级到指定方法
注意,我们这里并没有使用sentinel配置任何规则,但是却降级成功,就是因为fallback是用于管理异常的,当业务方法发生异常,可以降级到指定方法
-
为业务方法添加blockHandler,看看是什么效果
重启84,访问业务方法:
可以看到直接报错了,并没有降级,也就是说blockHandler只对sentienl定义的规则降级
-
如果fallback和blockHandler都配置呢?
设置qps规则,阈值1
测试:
可以看到,当两个都同时生效时,blockhandler优先生效
-
@SentinelResource还有一个属性,exceptionsToIgnore
exceptionsToIgnore指定一个异常类,
表示如果当前方法抛出的是指定的异常,不降级,直接对用户抛出异常
sentinel整合ribbon+openFeign+fallback
-
修改84模块,使其支持feign
-
pom
-
配置文件
-
主启动类也要修改
-
创建远程调用pay模块的接口
-
创建这个接口的实现类,用于降级
-
再次修改接口,指定降级类
- controller添加远程调用
-
测试
启动9003,84
-
测试,如果关闭9003。看看84会不会降级
可以看到,正常降级了
-
熔断框架比较
sentinel持久化规则
默认规则是临时存储的,重启sentinel就会消失
这里以之前的8401为案例进行修改:
-
修改8401的pom
添加: <!-- SpringCloud ailibaba sentinel-datasource-nacos 持久化需要用到--> <dependency> <groupId>com.alibaba.csp</groupId> <artifactId>sentinel-datasource-nacos</artifactId> </dependency>
-
修改配置文件:
添加:
实际上就是指定,我们的规则要保证在哪个名称空间的哪个分组下
这里没有指定namespace, 但是是可以指定的
注意,这里的dataid要与8401的服务名一致
-
在nacos中创建一个配置文件,dataId就是上面配置文件中指定的
json中这些属性的含义:
[ { "resource": "/rateLimit/byUrl", "limitApp": "default", "grade":1, "count":1, "strategy":0, "controlBehavior":0, "clusterMode": false } ]
-
启动8401:
可以看到,直接读取到了规则(云服务器无法获取,这种方法是推模式,由nacos将限流策略推送到项目)
-
关闭8401
-
此时重启8401,如果sentinel又可以正常读取到规则,那么证明持久化成功
可以看到,又重新出现了
Seata:
Seata 是一款开源的分布式事务解决方案,致力于提供高性能和简单易用的分布式事务服务。Seata 将为用户提供了 AT、TCC、SAGA 和 XA 事务模式,为用户打造一站式的分布式解决方案。
分布式事务中的一些概念,也是seata中的概念:
seata安装:
-
下载安装seata的安装包
-
修改file.conf
-
service { #vgroup->rgroup vgroup_mapping.my_test_tx_group = "fsp_tx_group" 指定事务名称 #only support single node default.grouplist = "127.0.0.1:8091" #degrade current not support enableDegrade = false #disable disable = false #unit ms,s,m,h,d represents milliseconds, seconds, minutes, hours, days, default permanent max.commit.retry.timeout = "-1" max.rollback.retry.timeout = "-1" }
store { ## store mode: file、db mode = "db" 指定使用数据库存储日志 ## file store file { dir = "sessionStore" # branch session size , if exceeded first try compress lockkey, still exceeded throws exceptions max-branch-session-size = 16384 # globe session size , if exceeded throws exceptions max-global-session-size = 512 # file buffer size , if exceeded allocate new buffer file-write-buffer-cache-size = 16384 # when recover batch read size session.reload.read_size = 100 # async, sync flush-disk-mode = async } ## database store db { ## the implement of javax.sql.DataSource, such as DruidDataSource(druid)/BasicDataSource(dbcp) etc. datasource = "dbcp" ## mysql/oracle/h2/oceanbase etc. db-type = "mysql" driver-class-name = "com.mysql.cj.jdbc.Driver" url = "jdbc:mysql://127.0.0.1:3306/seata" 指定自己的数据库信息 user = "root" password = "password" min-conn = 1 max-conn = 3 global.table = "global_table" branch.table = "branch_table" lock-table = "lock_table" query-limit = 100 } }
-
mysql建库建表
1.上面指定了数据库为seata,所以创建一个数据库名为seata
2.建表,在seata的安装目录下有一个db_store.sql,运行即可
-
继续修改配置文件,修改registry.conf
配置seata作为微服务,指定注册中心
registry {
# file 、nacos 、eureka、redis、zk、consul、etcd3、sofa
type = "nacos" 指定注册服务的类型,此处使用nacos
nacos {
serverAddr = "localhost:8848" 指定nacos地址
namespace = ""
cluster = "default"
}
eureka {
serviceUrl = "http://localhost:8761/eureka"
application = "default"
weight = "1"
}
redis {
serverAddr = "localhost:6379"
db = "0"
}
zk {
cluster = "default"
serverAddr = "127.0.0.1:2181"
session.timeout = 6000
connect.timeout = 2000
}
consul {
cluster = "default"
serverAddr = "127.0.0.1:8500"
}
etcd3 {
cluster = "default"
serverAddr = "http://localhost:2379"
}
sofa {
serverAddr = "127.0.0.1:9603"
application = "default"
region = "DEFAULT_ZONE"
datacenter = "DefaultDataCenter"
cluster = "default"
group = "SEATA_GROUP"
addressWaitTime = "3000"
}
file {
name = "file.conf"
}
}
- 启动
先启动nacos,再启动seata-server(运行安装目录下的,seata-server.bat)
业务说明
下单--->库存--->账号余额
-
创建三个数据库
create database seata_order; create database seata_storage; create database seata_account;
-
创建对应的表
- 三个数据库各个创建回滚日志表,方便查看
- ----------------------------
-- Table structure for undo_log
-- ----------------------------
DROP TABLE IF EXISTS `undo_log`;
CREATE TABLE `undo_log` (
`id` bigint(0) NOT NULL AUTO_INCREMENT,
`branch_id` bigint(0) NOT NULL,
`xid` varchar(100) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,
`context` varchar(128) CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL,
`rollback_info` longblob NOT NULL,
`log_status` int(0) NOT NULL,
`log_created` datetime(0) NOT NULL,
`log_modified` datetime(0) NOT NULL,
`ext` varchar(100) CHARACTER SET utf8 COLLATE utf8_general_ci NULL DEFAULT NULL,
PRIMARY KEY (`id`) USING BTREE,
UNIQUE INDEX `ux_undo_log`(`xid`, `branch_id`) USING BTREE
) ENGINE = InnoDB AUTO_INCREMENT = 1 CHARACTER SET = utf8 COLLATE = utf8_general_ci ROW_FORMAT = Dynamic;
SET FOREIGN_KEY_CHECKS = 1;
注意:每个库都要执行一次,这个sql生成回滚日志表
-
每个业务都创建一个微服务,也就是要有三个微服务:订单,库存,账号
订单seta-order-2001
-
pom
-
配置文件
server: port: 2001 spring: application: name: seata-order-service cloud: alibaba: seata: # 自定义事务组名称需要与seata-server中的对应,我们之前在seata的配置文件中配置的名字 tx-service-group: fsp_tx_group nacos: discovery: server-addr: 127.0.0.1:8848 datasource: # 当前数据源操作类型 type: com.alibaba.druid.pool.DruidDataSource # mysql驱动类 driver-class-name: com.mysql.cj.jdbc.Driver url: jdbc:mysql://localhost:3306/seata_order?useUnicode=true&characterEncoding=UTF-8&useSSL=false&serverTimezone=GMT%2B8 username: root password: root feign: hystrix: enabled: false logging: level: io: seata: info mybatis: mapperLocations: classpath*:mapper/*.xml
还要额外创建其他配置文件,创建一个file.conf:
transport { # tcp udt unix-domain-socket type = "TCP" #NIO NATIVE server = "NIO" #enable heartbeat heartbeat = true #thread factory for netty thread-factory { boss-thread-prefix = "NettyBoss" worker-thread-prefix = "NettyServerNIOWorker" server-executor-thread-prefix = "NettyServerBizHandler" share-boss-worker = false client-selector-thread-prefix = "NettyClientSelector" client-selector-thread-size = 1 client-worker-thread-prefix = "NettyClientWorkerThread" # netty boss thread size,will not be used for UDT boss-thread-size = 1 #auto default pin or 8 worker-thread-size = 8 } shutdown { # when destroy server, wait seconds wait = 3 } serialization = "seata" compressor = "none" } service { #vgroup->rgroup # 事务组名称 vgroup_mapping.fsp_tx_group = "default" #only support single node default.grouplist = "127.0.0.1:8091" #degrade current not support enableDegrade = false #disable disable = false #unit ms,s,m,h,d represents milliseconds, seconds, minutes, hours, days, default permanent max.commit.retry.timeout = "-1" max.rollback.retry.timeout = "-1" } client { async.commit.buffer.limit = 10000 lock { retry.internal = 10 retry.times = 30 } report.retry.count = 5 tm.commit.retry.count = 1 tm.rollback.retry.count = 1 } ## transaction log store store { ## store mode: file、db #mode = "file" mode = "db" ## file store file { dir = "sessionStore" # branch session size , if exceeded first try compress lockkey, still exceeded throws exceptions max-branch-session-size = 16384 # globe session size , if exceeded throws exceptions max-global-session-size = 512 # file buffer size , if exceeded allocate new buffer file-write-buffer-cache-size = 16384 # when recover batch read size session.reload.read_size = 100 # async, sync flush-disk-mode = async } ## database store db { ## the implement of javax.sql.DataSource, such as DruidDataSource(druid)/BasicDataSource(dbcp) etc. datasource = "dbcp" ## mysql/oracle/h2/oceanbase etc. db-type = "mysql" driver-class-name = "com.mysql.jdbc.Driver" url = "jdbc:mysql://127.0.0.1:3306/seata" user = "root" password = "password" min-conn = 1 max-conn = 3 global.table = "global_table" branch.table = "branch_table" lock-table = "lock_table" query-limit = 100 } } lock { ## the lock store mode: local、remote mode = "remote" local { ## store locks in user's database } remote { ## store locks in the seata's server } } recovery { #schedule committing retry period in milliseconds committing-retry-period = 1000 #schedule asyn committing retry period in milliseconds asyn-committing-retry-period = 1000 #schedule rollbacking retry period in milliseconds rollbacking-retry-period = 1000 #schedule timeout retry period in milliseconds timeout-retry-period = 1000 } transaction { undo.data.validation = true undo.log.serialization = "jackson" undo.log.save.days = 7 #schedule delete expired undo_log in milliseconds undo.log.delete.period = 86400000 undo.log.table = "undo_log" } ## metrics settings metrics { enabled = false registry-type = "compact" # multi exporters use comma divided exporter-list = "prometheus" exporter-prometheus-port = 9898 } support { ## spring spring { # auto proxy the DataSource bean datasource.autoproxy = false } }
创建registry.conf:
registry { # file 、nacos 、eureka、redis、zk、consul、etcd3、sofa type = "nacos" nacos { #serverAddr = "localhost" serverAddr = "localhost:8848" namespace = "" cluster = "default" } eureka { serviceUrl = "http://localhost:8761/eureka" application = "default" weight = "1" } redis { serverAddr = "localhost:6379" db = "0" } zk { cluster = "default" serverAddr = "127.0.0.1:2181" session.timeout = 6000 connect.timeout = 2000 } consul { cluster = "default" serverAddr = "127.0.0.1:8500" } etcd3 { cluster = "default" serverAddr = "http://localhost:2379" } sofa { serverAddr = "127.0.0.1:9603" application = "default" region = "DEFAULT_ZONE" datacenter = "DefaultDataCenter" cluster = "default" group = "SEATA_GROUP" addressWaitTime = "3000" } file { name = "file.conf" } } config { # file、nacos 、apollo、zk、consul、etcd3 type = "file" nacos { serverAddr = "localhost" namespace = "" } consul { serverAddr = "127.0.0.1:8500" } apollo { app.id = "seata-server" apollo.meta = "http://192.168.1.204:8801" } zk { serverAddr = "127.0.0.1:2181" session.timeout = 6000 connect.timeout = 2000 } etcd3 { serverAddr = "http://localhost:2379" } file { name = "file.conf" } }
实际上就是要将seata中的我们之前修改的两个配置文件复制到这个项目下
-
主启动类
@SpringBootApplication(exclude = DataSourceAutoConfiguration.class) //取消数据源的自动创建 @EnableDiscoveryClient @EnableFeignClients public class SeataOrderMain2001 { public static void main(String[] args) { SpringApplication.run(SeataOrderMain2001.class,args); } }
-
service层
public interface OrderService { /** * 创建订单 * @param order */ void create(Order order); } ``` ```java @FeignClient(value = "seata-storage-service") public interface StorageService { /** * 减库存 * @param productId * @param count * @return */ @PostMapping(value = "/storage/decrease") CommonResult decrease(@RequestParam("productId") Long productId, @RequestParam("count") Integer count); } ``` ```java @FeignClient(value = "seata-account-service") public interface AccountService { /** * 减余额 * @param userId * @param money * @return */ @PostMapping(value = "/account/decrease") CommonResult decrease(@RequestParam("userId") Long userId, @RequestParam("money") BigDecimal money); } ``` ```java @Service @Slf4j public class OrderServiceImpl implements OrderService { @Resource private OrderDao orderDao; @Resource private AccountService accountService; @Resource private StorageService storageService; /** * 创建订单->调用库存服务扣减库存->调用账户服务扣减账户余额->修改订单状态 * 简单说: * 下订单->减库存->减余额->改状态 * GlobalTransactional seata开启分布式事务,异常时回滚,name保证唯一即可 * @param order 订单对象 */ @Override ///@GlobalTransactional(name = "fsp-create-order", rollbackFor = Exception.class) public void create(Order order) { // 1 新建订单 log.info("----->开始新建订单"); orderDao.create(order); // 2 扣减库存 log.info("----->订单微服务开始调用库存,做扣减Count"); storageService.decrease(order.getProductId(), order.getCount()); log.info("----->订单微服务开始调用库存,做扣减End"); // 3 扣减账户 log.info("----->订单微服务开始调用账户,做扣减Money"); accountService.decrease(order.getUserId(), order.getMoney()); log.info("----->订单微服务开始调用账户,做扣减End"); // 4 修改订单状态,从0到1,1代表已完成 log.info("----->修改订单状态开始"); orderDao.update(order.getUserId(), 0); log.info("----->下订单结束了,O(∩_∩)O哈哈~"); } } ```
- dao层也就是接口
```java @Mapper public interface OrderDao { /** * 1 新建订单 * @param order * @return */ int create(Order order); /** * 2 修改订单状态,从0改为1 * @param userId * @param status * @return */ int update(@Param("userId") Long userId, @Param("status") Integer status); } ``` 在resource下创建mapper文件夹,编写mapper.xml ```xml <?xml version="1.0" encoding="UTF-8" ?> <!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd"> <mapper namespace="com.eiletxie.springcloud.alibaba.dao.OrderDao"> <resultMap id="BaseResultMap" type="com.eiletxie.springcloud.alibaba.domain.Order"> <id column="id" property="id" jdbcType="BIGINT"></id> <result column="user_id" property="userId" jdbcType="BIGINT"></result> <result column="product_id" property="productId" jdbcType="BIGINT"></result> <result column="count" property="count" jdbcType="INTEGER"></result> <result column="money" property="money" jdbcType="DECIMAL"></result> <result column="status" property="status" jdbcType="INTEGER"></result> </resultMap> <insert id="create" parameterType="com.eiletxie.springcloud.alibaba.domain.Order" useGeneratedKeys="true" keyProperty="id"> insert into t_order(user_id,product_id,count,money,status) values (#{userId},#{productId},#{count},#{money},0); </insert> <update id="update"> update t_order set status =1 where user_id =#{userId} and status=#{status}; </update> </mapper> ```
- controller层
```java @RestController public class OrderController { @Resource private OrderService orderService; /** * 创建订单 * * @param order * @return */ @GetMapping("/order/create") public CommonResult create(Order order) { orderService.create(order); return new CommonResult(200, "订单创建成功"); } } ```
-
entity类(也叫domain类)
@Data @AllArgsConstructor @NoArgsConstructor public class CommonResult<T> { private Integer code; private String message; private T data; public CommonResult(Integer code, String message) { this(code, message, null); } }
@Data @AllArgsConstructor @NoArgsConstructor public class Order { private Long id; private String userId; private Long productId; private Integer count; private BigDecimal money; //0创建中 1 已完成 private Integer status; }
-
config配置类
```java @Configuration @MapperScan({"com.eiletxie.springcloud.alibaba.dao"}) 指定我们的接口的位置 public class MyBatisConfig { } ``` ```java /** * @Author EiletXie * @Since 2020/3/18 21:51 * 使用Seata对数据源进行代理 */ @Configuration public class DataSourceProxyConfig { @Value("${mybatis.mapperLocations}") private String mapperLocations; @Bean @ConfigurationProperties(prefix = "spring.datasource") public DataSource druidDataSource() { return new DruidDataSource(); } @Bean public DataSourceProxy dataSourceProxy(DataSource druidDataSource) { return new DataSourceProxy(druidDataSource); } @Bean public SqlSessionFactory sqlSessionFactoryBean(DataSourceProxy dataSourceProxy) throws Exception { SqlSessionFactoryBean bean = new SqlSessionFactoryBean(); bean.setDataSource(dataSourceProxy); ResourcePatternResolver resolver = new PathMatchingResourcePatternResolver(); bean.setMapperLocations(resolver.getResources(mapperLocations)); return bean.getObject(); } } ```
库存seta-storage-2002
看脑图
- pom
- 配置文件
- 主启动类
- service层
- dao层
- controller层
账号,seta-account-2003
看脑图
- pom
- 配置文件
- 主启动类
- service层
- dao层
- controller层
-
-
全局创建完成后,首先测试不加seata
-
使用seata:
在订单模块的serviceImpl类中的create方法添加启动分布式事务的注解
/** 这里添加开启分布式事务的注解,name指定当前全局事务的名称 rollbackFor表示,发生什么异常需要回滚 noRollbackFor:表示,发生什么异常不需要回滚 */ @GlobalTransactional(name = "fsp-create-order",rollbackFor = Exception.class) ///@GlobalTransactional(name = "fsp-create-order", rollbackFor = Exception.class) public void create(Order order) { // 1 新建订单 log.info("----->开始新建订单"); orderDao.create(order); // 2 扣减库存 log.info("----->订单微服务开始调用库存,做扣减Count"); storageService.decrease(order.getProductId(), order.getCount()); log.info("----->订单微服务开始调用库存,做扣减End"); // 3 扣减账户 log.info("----->订单微服务开始调用账户,做扣减Money"); accountService.decrease(order.getUserId(), order.getMoney()); log.info("----->订单微服务开始调用账户,做扣减End"); // 4 修改订单状态,从0到1,1代表已完成 log.info("----->修改订单状态开始"); orderDao.update(order.getUserId(), 0); log.info("----->下订单结束了,O(∩_∩)O哈哈~"); }
-
此时在测试
发现发生异常后,直接回滚了,前面的修改操作都回滚了
setat原理:
seata提供了四个模式:
第一阶段:
二阶段之提交:
二阶段之回滚:
断点:
可以看到,他们的xid全局事务id是一样的,证明他们在一个事务下
before 和 after的原理就是
在更新数据之前,先解析这个更新sql,然后查询要更新的数据,进行保存
标签:服务,配置文件,SpringCloud,class,alibaba,硅谷,order,public,cloud From: https://www.cnblogs.com/wowosong/p/17029097.html