Thinking distributed transaction (transfer) distributed transaction coherency protocol 2pc and 3pc

Source:   Let's talk a distributed transaction

     Distributed Transaction coherence protocols 2pc and 3pc


 

 

  A complex system are often from a small and simple system derived from the development, in order to meet the growing business needs continue to increase the complexity of the system, from a single architecture and gradually developed into a distributed architecture, and distributed systems architecture is designed to focus on: high performance, high availability, high expansion

Distributed Transaction

   High Availability refers to a system without interruption of executive function enabled, represent the extent of available systems, is one of the criteria when designing a system must be observed.

   The high availability implementations, is nothing less than a redundant, high availability is stored, the problem is not how to back up data, but rather how to avoid the impact on business caused by inconsistent data

   For distributed systems, distributed systems to ensure data consistency in the need for a solution that can ensure that the data is always consistent in the subsystem to avoid traffic problems, this implementation is called a distributed transaction, or success together or fail together, must be a holistic affairs

For chestnut:

In the electricity business site, users of commodities orders, we need to create an order data in the Orders table, while the need to modify the remaining number of items in the inventory of the current inventory table, add a two-step operation, a modification, we must this two-step operation must simultaneously ensure the success or failure of the operation, otherwise the business will be a problem

Establish:

Small volume of business, less user, the system is only a single architecture , orders and inventory table tables in a database, then you can use the mysql local transactions to ensure data consistency

Development period:

Business has developed rapidly, quantitative multi-user, single-data performance bottlenecks have been carried out in accordance with the operational latitude sub-libraries , the library is divided into orders and inventory database, due to the cross-database cross-machine, local transaction mysql database can no longer guarantee order and inventory library the data consistency , this time on the need to ensure distributed transaction

Maturity:

Business Development, single architecture has been unable to meet demand, and thus derived has become a distributed system, then orders and inventory have been split to two sub-systems to provide services between subsystems using rpc communicate, but no matter what system to develop into kind, we must ensure that no business issues, orders and inventory data to ensure consistency, this time to think about the next service between how we should ensure consistent data

Theoretical basis

Before explaining specific programs, it is necessary to look at the theoretical basis for the design of distributed data to follow, CAP BACS theory and the theory behind the practice of paving the way for

CAP theory

  CAP: Consistency Acailability Partition tolerance shorthand

  • Consistency : consistency

    For a client, the read operation can return the most recent write operation results

  • Acailability : Availability

    Non-faulty node returns reasonable response within a reasonable time

  • Tolerance Partition : Partition fault tolerance

    After the emergence of network partitioning, the system can continue to provide services  that you know what you are network partition ~~

Because the system is certainly in distributed systems deployed on multiple machines, ensure that the network can not be 100% reliable, so the network partition must exist, namely P must exist;

After the emergence of network partition, there have been problems of availability and consistency, we have to be a trade-off between the two, so there was two architectures: CP architecture, AP architecture;

CP architecture

When the network partition occurs, in order to ensure consistency, it is necessary to reject the request, or can not ensure consistency

  1. When no partition of a network, consistent with the data of system A and system B, X = 1
  2. The modified system A is X 2, X = 2
  3. After a network partition occurs, the data synchronization of data between system A and system B fails, the system B, X = 1
  4. When a client requests the system B, in order to ensure consistency, then the system B shall reject the service request, it returns an error message or error code

This violates the above embodiment requires the availability of (in this case system B shall reject the service request, returns an error message or an error code), only the partition to meet the consistency and fault-tolerant, i.e., CP

CAP理论是忽略网络延迟,从系统A同步数据到系统B的网络延迟是忽略的

CP架构保证了客户端在获取数据时一定是最近的写操作,或者获取到异常信息,绝不会出现数据不一致的情况

AP架构

当网络分区出现后,为了保证可用性,系统B可以返回旧值,保证系统的可用性

  1. 当没有出网络分区时,系统A与系统B的数据一致,X=1
  2. 将系统A的X修改为2,X=2
  3. 当出现网络分区后,系统A与系统B之间的数据同步数据失败,系统B的X=1
  4. 当客户端请求系统B时,为了保证可用性,此时系统B应返回旧值,X=1

上面这种方式就违背了一致性的要求(此时系统B应返回旧值,X=1),只满足可用性和分区容错,即AP

CP架构保证了客户端在获取数据时无论返回的是最新值还是旧值,系统一定是可用的

CAP理论关注粒度是数据,而不是整体系统设计的策略

BASE理论

​   BASE理论指的是基本可用 Basically Available,软状态 Soft Stat,最终一致性 Eventual Consistency,核心思想是即便无法做到强一致性,但应该可以有采用适合的方式保证最终一致性

   BASE:Basically Available Soft Stat Eventual Consistency的简写

  • BA:Basically Available 基本可用

    分布式系统在出现故障的时候,允许损失部分可用性,即保证核心可用

  • S:Soft Stat 软状态

    允许系统存在中间状态,而该中间状态不会影响系统整体可用性

  • E:Consistency 最终一致性

    系统中的所有数据副本经过一定时间后,最终能够达到一致的状态

BASE理论本质上是对CAP理论的延伸,是对 CAP 中 AP 方案的一个补充

分布式事务协议

 前提:在单体架构中,事务的保证有mysql实现,不用我们实现,当单个数据库的性能出现瓶颈的时候,对数据库进行分表分库处理,按业务纬度将订单和库存的表分为两个库,订单库和库存库

X/Open XA 协议

  XA是一个分布式事务协议,由Tuxedo提出。XA规范主要定义了(全局)事务管理器(Transaction Manager)和(局部)资源管理器(Resource Manager)之间的接口。XA接口是双向的系统接口,在事务管理器Transaction Manager)以及一个或多个资源管理器(Resource Manager)之间形成通信桥梁

  XA协议采用两阶段提交方式来管理分布式事务。XA接口提供资源管理器与事务管理器之间进行通信的标准接口

2PC 二阶段提交 协议

​  二阶段提交(Two-phase Commit),是指,为了使基于分布式系统架构下的所有节点在进行事务提交时保持一致性而设计的一种算法(Algorithm)。通常,二阶段提交也被称为是一种协议(Protocol)。在分布式系统中,每个节点虽然可以知晓自己的操作时成功或者失败,却无法知道其他节点的操作的成功或失败。当一个事务跨越多个节点时,为了保持事务的ACID特性,需要引入一个作为协调者的组件来统一掌控所有节点(称作参与者)的操作结果并最终指示这些节点是否要把操作结果进行真正的提交(比如将更新后的数据写入磁盘等等)。因此,二阶段提交的算法思路可以概括为: 参与者将操作成败通知协调者,再由协调者根据所有参与者的反馈情报决定各参与者是否要提交操作还是中止操作

二阶段提交算法的成立基于以下假设:

  1. 该分布式系统中,存在一个节点作为协调者(Coordinator),其他节点作为参与者(Cohorts)。且节点之间可以进行网络通信。
  2. 所有节点都采用预写式日志,且日志被写入后即被保持在可靠的存储设备上,即使节点损坏不会导致日志数据的消失。
  3. 所有节点不会永久性损坏,即使损坏后仍然可以恢复

二阶段提交分为两阶段:第一阶段:投票阶段,第二阶段:提交阶段

投票阶段 Prepares

  1. 协调者向所有参与者询问是否可以执行提交操作,并开始等待各参与者的响应
  2. 参与者执行事务操作,如果执行成功就返回Yes响应,如果执行失败就返回No响应
  3. 如果协调者接受参与者响应超时,也会认为执行事务操作失败

提交阶段 commit

  1. 如果第一阶段汇中所有参与者都返回yes响应,协调者向所有参与者发出提交请求,所有参与者提交事务
  2. 如果第一阶段中有一个或者多个参与者返回no响应,协调者向所有参与者发出回滚请求,所有参与者进行回滚操作

二阶段提交优点:尽量保证了数据的强一致,但不是100%一致

缺点:

  • 单点故障

    由于协调者的重要性,一旦协调者发生故障,参与者会一直阻塞,尤其时在第二阶段,协调者发生故障,那么所有的参与者都处于锁定事务资源的状态中,而无法继续完成事务操作

  • 同步阻塞

    由于所有节点在执行操作时都是同步阻塞的,当参与者占有公共资源时,其他第三方节点访问公共资源不得不处于阻塞状态

  • 数据不一致

    在第二阶段中,当协调者想参与者发送提交事务请求之后,发生了局部网络异常或者在发送提交事务请求过程中协调者发生了故障,这会导致只有一部分参与者接收到了提交事务请求。而在这部分参与者接到提交事务请求之后就会执行提交事务操作。但是其他部分未接收到提交事务请求的参与者则无法提交事务。从而导致分布式系统中的数据不一致

二阶段提交的问题

​  如果协调者在第二阶段发送提交请求之后挂掉,而唯一接受到这条消息的参与者执行之后也挂掉了,即使协调者通过选举协议产生了新的协调者并通知其他参与者进行提交或回滚操作的话,都可能会与这个已经执行的参与者执行的操作不一样,当这个挂掉的参与者恢复之后,就会产生数据不一致的问题

3PC 三阶段提交 协议

​  三阶段提交(Three-phase commit),三阶段提交是为解决两阶段提交协议|的缺点而设计的。 与两阶段提交不同的是,三阶段提交是“非阻塞”协议。三阶段提交在两阶段提交的第一阶段与第二阶段之间插入了一个准备阶段,使得原先在两阶段提交中,参与者在投票之后,由于协调者发生崩溃或错误,而导致参与者处于无法知晓是否提交或者中止的“不确定状态”所产生的可能相当长的延时的问题得以解决

三阶段提交的三个阶段:CanCommit,PreCommit,DoCommit三个阶段

询问阶段 CanCommit

 协调者向参与者发送commit请求,参与者如果可以提交就返回Yes响应,否则返回No响应

准备阶段 PreCommit

 协调者根据参与者在询问阶段的响应判断是否执行事务还是中断事务

  • 如果所有参与者都返回Yes,则执行事务
  • 如果参与者有一个或多个参与者返回No或者超时,则中断事务

 参与者执行完操作之后返回ACK响应,同时开始等待最终指令

提交阶段 DoCommit

 协调者根据参与者在准备阶段的响应判断是否执行事务还是中断事务

  • 如果所有参与者都返回正确的ACK响应,则提交事务
  • 如果参与者有一个或多个参与者收到错误的ACK响应或者超时,则中断事务
  • 如果参与者无法及时接收到来自协调者的提交或者中断事务请求时,会在等待超时之后,会继续进行事务提交

协调者收到所有参与者的ACK响应,完成事务

解决二阶段提交时的问题

​  在三阶段提交中,如果在第三阶段协调者发送提交请求之后挂掉,并且唯一的接受的参与者执行提交操作之后也挂掉了,这时协调者通过选举协议产生了新的协调者,在二阶段提交时存在的问题就是新的协调者不确定已经执行过事务的参与者是执行的提交事务还是中断事务,但是在三阶段提交时,肯定得到了第二阶段的再次确认,那么第二阶段必然是已经正确的执行了事务操作,只等待提交事务了,所以新的协调者可以从第二阶段中分析出应该执行的操作,进行提交或者中断事务操作,这样即使挂掉的参与者恢复过来,数据也是一致的。

​ 所以,三阶段提交解决了二阶段提交中存在的由于协调者和参与者同时挂掉可能导致的数据一致性问题和单点故障问题,并减少阻塞,因为一旦参与者无法及时收到来自协调者的信息之后,他会默认执行提交事务,而不会一直持有事务资源并处于阻塞状态。

三阶段提交的问题

​  在提交阶段如果发送的是中断事务请求,但是由于网络问题,导致部分参与者没有接到请求,那么参与者会在等待超时之后执行提交事务操作,这样这些由于网络问题导致提交事务的参与者的数据就与接受到中断事务请求的参与者存在数据不一致的问题。

所以无论是2PC还是3PC都不能保证分布式系统中的数据100%一致

解决方案

强一致性分布式事务

单体架构多数据源,在业务开发中,肯定是先执行对订单库的操作,但是不提交事务,再执行对库存库的操作,也不提交事务,如果两个操作都成功,在一起提交事务,如果有一个操作失败,则两个都进行回滚

基于2PC/XA协议实现的JTA

我们已经知道了2PC和XA协议的原理,而JTA是java规范,是XA在java上的实现

JTA(Java Transaction Manager) :

  1. TransactionManager : 常用方法,可以开启,回滚,获取事务. begin(),rollback()…
  2. XAResouce : 资源管理,通过Session来进行事务管理,commit(xid)…
  3. XID : 每一个事务都分配一个特定的XID

  JTA主要的原理是二阶段提交,当整个业务完成了之后只是第一阶段提交,在第二阶段提交之前会检查其他所有事务是否已经提交,如果前面出现了错误或是没有提交,那么第二阶段就不会提交,而是直接回滚,这样所有的事务都会做回滚操作

基于JTA这种方案实现分布式事务的强一致性

JTA的特点:

  • 基于两阶段提交,有可能会出现数据不一致的情况
  • 事务时间过长,阻塞
  • 性能低,吞吐量低

实现可以使用基于JTA实现的jar包Atomikos 使用例子可以自己百度一下

​ 正常架构设计中是否应该出现这种跨库的操作,我觉得是不应该的,如果过按业务拆分将数据源进行分库,我们应该同时将服务也拆分出去才合适,应遵循一个系统只操作一个数据源(主从没关系),避免后续可能会出现的多个系统调用一个数据源的情况

最终一致性分布式事务方案(柔性事务)

 JTA方案适用于单体架构多数据源时实现分布式事务,但对于微服务间的分布式事务无能为力了,我们需要使用其他的方案实现分布式事务

本地消息表

本地消息表的核心思想是将分布式事务拆分成本地事务进行处理

以本文中例子,在订单系统新增一条消息表,将新增订单和新增消息放到一个事务里完成,然后通过轮询的方式去查询消息表,将消息推送到mq,库存系统去消费mq

执行流程:

  1. 订单系统,添加一条订单和一条消息,在一个事务里提交
  2. 订单系统,使用定时任务轮询查询状态为未同步的消息表,发送到mq,如果发送失败,就重试发送
  3. 库存系统,接收mq消息,修改库存表,需要保证幂等操作
  4. 如果修改成功,调用rpc接口修改订单系统消息表的状态为已完成或者直接删除这条消息
  5. 如果修改失败,可以不做处理,等待重试

 订单系统中的消息有可能由于业务问题会一直重复发送,所以为了避免这种情况可以记录一下 发送次数,当达到次数限制之后报警,人工接入处理;库存系统需要保证幂等,避免同一条消息被多次消费造成数据一致;

 本地消息表这种方案实现了最终一致性,需要在业务系统里增加消息表,业务逻辑中多一次插入的DB操作,所以性能会有损耗,而且最终一致性的间隔主要有定时任务的间隔时间决定

这其中需要注意的地方

  • MQ消息事务

消息事务的原理是将两个事务通过消息中间件进行异步解耦

订单系统执行自己的本地事务,并发送mq消息,库存系统接收消息,执行自己的本地事务,乍一看,好像跟本地消息表的实现方案类似,只是省去 了对本地消息表的操作和轮询发送mq的操作,但实际上两种方案的实现是不一样的

消息事务一定要保证业务操作与消息发送的一致性,如果业务操作成功,这条消息也一定投递成功

消息事务依赖于消息中间件的事务消息,基于消息中间件的二阶段提交实现的,RocketMQ就支持事务消息

执行流程:

  1. 发送prepare消息到消息中间件
  2. 发送成功后,执行本地事务
  3. 如果事务执行成功,则commit,消息中间件将消息下发至消费端
  4. 如果事务执行失败,则回滚,消息中间件将这条prepare消息删除
  5. 消费端接收到消息进行消费,如果消费失败,则不断重试

这种方案也是实现了最终一致性,对比本地消息表实现方案,不需要再建消息表,不再依赖本地数据库事务了,所以这种方案更适用于高并发的场景

最大努力通知

 最大努力通知相比前两种方案实现简单,适用于一些最终一致性要求较低的业务,比如支付通知,短信通知这种业务

 以支付通知为例,业务系统调用支付平台进行支付,支付平台进行支付,进行操作支付之后支付平台会尽量去通知业务系统支付操作是否成功,但是会有一个最大通知次数,如果超过这个次数后还是通知失败,就不再通知,业务系统自行调用支付平台提供一个查询接口,供业务系统进行查询支付操作是否成功

执行流程:

  1. 业务系统调用支付平台支付接口, 并在本地进行记录,支付状态为支付中
  2. 支付平台进行支付操作之后,无论成功还是失败,都需要给业务系统一个结果通知
  3. 如果通知一直失败则根据重试规则进行重试,达到最大通知次数后,不在通知
  4. 支付平台提供查询订单支付操作结果接口
  5. 业务系统根据一定业务规则去支付平台查询支付结果

这种方案也是实现了最终一致性

补偿事务TCC

 TCC Try-Confirm-Cancel的简称,针对每个操作,都需要有一个其对应的确认和取消操作,当操作成功时调用确认操作,当操作失败时调用取消操作,类似于二阶段提交,只不过是这里的提交和回滚是针对业务上的,所以基于TCC实现的分布式事务也可以看做是对业务的一种补偿机制

TCC的三阶段:

  1. Try 阶段:对业务系统做检测及资源预留
  2. Confirm 阶段:对业务系统做确认提交,Try阶段执行成功并开始执行 Confirm阶段时,默认 Confirm阶段是不会出错的。即:只要Try成功,Confirm一定成功
  3. Cancel 阶段:在业务执行错误,需要回滚的状态下执行的业务取消,预留资源释放

 在try阶段,是对业务系统进行检查及资源预览,比如订单和存储操作,需要检查库存剩余数量是否够用,并进行预留,预留操作的话就是新建一个可用库存数量字段,Try阶段操作是对这个可用库存数量进行操作

比如下一个订单减一个库存:

执行流程:

  1. Try阶段:订单系统将当前订单状态设置为支付中,库存系统校验当前剩余库存数量是否大于1,然后将可用库存数量设置为库存剩余数量-1,
  2. 如果Try阶段执行成功,执行Confirm 阶段,将订单状态修改为支付成功,库存剩余数量修改为可用库存数量
  3. 如果Try阶段执行失败,执行Cancel 阶段,将订单状态修改为支付失败,可用库存数量修改为库存剩余数量

基于TCC实现分布式事务,代码逻辑想对复杂一些,需要将原来的接口的逻辑拆分为:try,confirm ,cancel 三个接口的逻辑

基于TCC实现的分布式事务框架:ByteTCC,tcc-transaction

ByteTCC:https://github.com/liuyangming/ByteTCC

tcc-transaction:https://github.com/changmingxie/tcc-transaction

读完之后应该对分布式事务有了一个大致的了解,在实际生产中我们要尽量避免使用分布式事务,能转化为本地事务就用本地事务,如果必须使用分布式事务,还需要从业务角度多思考使用哪种方案更适合

总之行动之前多思考

 

 


 

另一篇关于2PC、3PC的介绍

 

一:分布式一致性协议
 (1)对于一个分布式系统进行架构设计的过程中,往往会在系统的可用性和数据一致性之间进行反复的权衡,于是就产生了一系列的一致性协议。
 (2)长期探索涌现出一大批经典的一致性协议和算法。其中最著名的就是二阶段提交协议,三阶段提交协议和paxos算法。


二:2PC与3PC
 (1)在分布式系统中,每一个机器节点虽然都能够明确知道自己在进行事务操作过程中的结果是成功或失败,但却无法直接获取到其他分布式节点的操作结果。因此,当一个事务操作需要跨越多个分布式节点的时候,为了保持事务处理的ACID特性,就需要引入一个称为“协调者”的组件来统一调度所有分布式节点的执行逻辑,这些被调度的分布式节点则被称为“参与者”。
 (2)协调者负责调度参与者的行为,并最终决定这些参与者是否要把事务真正进行提交。
 (3)基于这个思想,衍生出了二阶段提交和三阶段提交两种协议。


三:2PC
【1】2pc概念
  (1.1)2PC,是Two-Phase Commit的所写,即二阶段提交,是计算机网络尤其是在数据库领域内,为了使基于分布式系统架构下的所有节点在进行事务处理过程中能够保持原子性和一致性而设计的一种算法。
  (1.2)通常,二阶段提交协议也被认为是一种一致性协议,用来保证分布式系统数据一致性。
  (1.3)目前,绝大部分的关系型数据库都是采用二阶段提交协议来完成分布式事务处理的。利用该协议能够非常方便地完成所有分布式事务参与者的协调,统一决定事务的提交或回滚,从而能够有效地保证分布式数据一致性,因此二阶段提交协议被广泛地应用在许多分布式系统中。


【2】2PC说明
  顾名思义,二阶段提交协议是将事务的提交过程分成两个阶段进行处理,其执行流程如下。
●阶段一:提交事务请求(投票阶段)
        1,事务询问:协调者向所有参与者发送事务内容,询问是否可以执行事务提交操作,并开始等待各参与者的响应。
        2,执行事务:各参与者节点执行事务操作,并将Undo和Redo信息计入事务日志中。
        3,各参与者向协调者反馈事务询问的响应。如果参与者成功执行了事务操作,那么就反馈给协调者yes响应,表示事务可以执行;如果参与者没有成功执行事务操作,那么就反馈给协调者No响应,表示事务不可以执行。


●阶段二:执行事务提交(根据投票结果确定最终实施)
在阶段二中,协调者会根据各参与者的反馈情况来决定最终是否可以进行事务提交操作,正常情况下,包含以下两种可能。
        《1》执行事务提交:假如协调者从所有的参与者获得的反馈是Yes响应,那么会执行事物提交。
                1)发送提交请求:协调者向所有参与者节点发出Commit请求
                2)事务提交:参与者接受到Commit请求后,会正式执行事务提交操作,并在完成提交之后释放整个事务执行期间占用的事务资源。
                3)反馈事务提交结果:参与者在完成事务提交之后,向协调者发送Ack消息
                4)完成事务:协调者接收到所有参与者反馈的Ack消息后,完成事务。

        《2》中断事务:假如任何一个参与者向协调者反馈了No响应,或者在等待超时之后,协调者尚无法接受到所有参与者的反馈响应,那么事务中断。
                1)发送回滚请求:协调者向所有参与者节点发送Rollback请求
                2)事务回滚:参与者接收到Rollback请求后,会利用其在阶段一中记录的Undo信息来执行事务回滚操作,并在完成回滚之后释放在整个事务执行期间占用的资源。
                3)反馈事务回滚结果:参与者在完成事务回滚之后,向协调者发送Ack消息
                4)中断事务:协调者接收到所有参与者反馈的Ack消息后,完成事务中断。


【3】:2PC优点和缺点 
 二阶段提交协议的优点:原理简单,实现方便
 二阶段提交协议的缺点 :同步阻塞,单点问题,脑裂,太过保守
   ●同步阻塞:
        ==>极大限制分布式系统性能
        ==>各个参与者完成时间不一,必然存在某些参与者等待其他未完成参与者完成事务操作。在等待过程中无法执行其他任何操作。
  ●单点问题:
        ==>协调者占据主导地位
        ==>一旦协调者出出现问题,那么整个事务则无法完成,尤其是在阶段二中出现问题,各个参与者所锁定的资源将无法释放。导致其他业务不能操作
   ●脑裂导致数据不一致:
         如果分布式节点出现网络分区,某些参与者未收到commit提交命令。则出现部分参与者完成数据提交。未收到commit的命令的参与者则无法进行事务提交。整个分布式系统便出现了数据不一致性现象。
   ●太过保守:
         协调者指示参与者进行事务提交询问的过程中,参与者出现故障导致协调者始终无法获取到所有参与者的相应信息的花,这时协调者只能靠自身的超时机制来判断是否需要中断事务,这样的策略显得保守。换句话说,二阶段提交协议没有设计较为完善的容错机制,任意一个节点故障会导致整个事务失败。

 

 

四:3PC
【1】3pc概念
  由于2pc协议存在同步阻塞,协调者单点问题,脑裂(网络分区)和太过保守的容错机制等缺点。因此在二阶段提交协议的基础上进行改进,提出了三阶段提交协议。
  三阶段提交协议,是2pc的改进版,其将二阶段提交协议“提交事务请求”过程一分为二,形成了由CanCommit,PreCommit和do Commit三个阶段组成事务处理协议。
【2】3PC说明
●阶段一:CanCommit(能否提交)
        1,事务询问:协调者向所有的参与者发送一个包含事务内容的canCommit请求,询问是否可以执行事务提交操作,并开始等待各个参与者响应。
        2,各参与者向协调者反馈事务询问的响应:参与者在接收到来自协调者的canCommit请求后,正常情况下,如果其自身认为可以顺利执行事务,那么会反馈Yes响应,并进入预备状态,否则反馈No


●阶段二:PreCommit(预提交)
在阶段二中,协调者会根据各个参与者的反馈情况来决定是否可以进行事务的PreCommit操作,正常情况下,包含两种可能。
《1》执行事务预提交
        假如协调者从所有的参与者获得的反馈都是Yes响应,那么进入Prepared阶段
        1)发送预提交请求:协调者向所有参与者节点发出preCommit的请求,并进入Prepared阶段。
        2)事务预提交:参与者接收到preCommit请求后,会执行事务操作,并将Undo和Redo信息记录到事务日志中。
        3)各参与者向协调者反馈事务执行的响应:如果参与者成功执行了事务操作,那么就会反馈给协调者Ack响应,同时等待最终的指令:提交(commit)或中止(abort)

《2》中断事务
        假如任何一个参与者向协调者反馈了No响应,或者在等待超时之后,协调者尚无法接收到所有参与者的反馈响应,那么就会中断事务。
         1)发送中断请求:协调者向所有参与者节点发出abort请求。
         2)中断事务:无论是收到来自协调者abort请求,或者是在等待协调者请求过程中出现超时,参与者都会中断事务。【参与者在预提交请求来临阶段,参与者收不到命令会中断事务】


●阶段三:doCommit(预提交)
        该阶段将进行真正的事务提交,会存在以下两种可能情况
        《1》执行提交
                1)发送提交请求:进入这一阶段,假设协调者处于正常工作状态,并且它接受到了来自参与者的Ack响应,那么它将从“预提交”状态转换到“提交”状态,并向所有的参与者发送doCommit请求。
                2)事务提交:参与者接收到doCommit请求后,会正式执行事务提交操作,并在完成提交之后释放在整个事务执行期间占用的事务资源。
                3)反馈事务提交结果:参与者在完成事务提交之后,向协调者发送Ack消息
                4)完成事务:协调者接收到所有参与者反馈的Ack消息后,完成事务。

        《2》中断事务
                进入这一阶段,假设协调者处于正常工作状态,并且有任意一个参与者向协调者反馈了No响应,或者在等待超时之后,协调者尚无法接收到所有参与者反馈响应,那么就会中断事务。
                1)发送中断请求:协调者向所有的参与者节点发送abort请求
                2)事务回滚:参与者接收到abort请求后,会利用其在阶段二中记录的Undo信息来执行事务回滚操作,并在完成回滚之后释放在整个事务执行期间的资源。
                3)反馈事务回滚结果:参与者在完成事务回滚之后,向协调者发送Ack消息。
                4)中断事务:协调者接收到所有参与者反馈的Ack消息后,中断事务。


【3】3PC注意事项
        需要注意的是,一旦进入阶段三,可能会存在以下两种故障。
        ●协调者出现问题
        ●协调者和参与者之间的网络出现故障
        无论出现哪种情况,最终都会导致参与者无法及时接收到来自协调者的doCommit或是abort请求,针对这样的异常情况,参与者都会在等待超时之后,继续进行事务提交。【参与者在等待协调者发送最终提交请求来临阶段,参与者超时未得到协调者的真正提交请求,会自动提交事务】




【4】3PC优点和缺点
         ●三阶段提交协议的优点:相较于二阶段提交协议,三阶段提交协议最大的优点就是降低了参与者的阻塞范围,并且能够在出现单点故障后继续达成一致。
         Shortcoming ● Three-phase commit protocol: Three-phase commit protocol at the same time removing the obstruction also introduces a new problem, that is, after the participants received preCommit message, if the network is partitioned, this time coordinator node and where the participants can not for normal network traffic, in this case, the participant will still be submitted to the transaction, which will inevitably arise data inconsistency.

 

Guess you like

Origin www.cnblogs.com/myseries/p/12076739.html