支付宝架构

支付宝所使用的架构分为两类三层,分别是运维平台(IAAS),技术平台(PAAS),业务平台(SAAS)。这三个平台,分别从底层,中间层和应用层提供服务。

因为双十一当天的用户数量,访问量,以及所有的数据都会是平时的几倍,所以对系统的要求也相对提高了,还要提供一套完整的备灾方案和故障恢复体系。保障系统的正常运行。基于以上几个需求,我们提出了逻辑数据中心架构,核心思想是把数据水平拆分的思路向上层提到接入层、终端, 从接入层开始把系统分成多个单元,单元有几个特性:

1.每个单元对外是封闭的,包括系统间交换各类存储的访问;

2.每个单元的实时数据是独立的,不共享。而会员或配置类对延时性要求不高的数据可共享;

3.单元之间的通信统一管控,尽量走异步化消息。同步消息走单元代理方案;

同时这套架构解决以一些问题:

1.由于尽量减少了跨单元交互和使用异步化,使得异地部署成为可能。整个系统的水平可伸缩性大大提高,不再依赖同城IDC;

2.可以实现N+1的异地灾备策略,大大缩减灾备成本,同时确保灾备设施真实可用;

3.整个系统已无单点存在,大大提升了整体的高可用性;同城和异地部署的多个单元可用作互备的容灾设施,通过运维管控平台进行快速切换,有机会实现100%的持续可用率;

4.该架构下业务级别的流量入口和出口形成了统一的可管控、可路由的控制点,整体系统的可管控能力得到很大提升。基于该架构,线上压测、流量管控、灰度发布等以前难以实现的运维管控模式,现在能够十分轻松地实现。

这套架构已经在近几年的双十一应用上了,并且提供了很好的服务,这套架构还拥有三个维度的可伸缩策略。

在当前大数据是的时代,最重要的一点还是要保证数据的可靠性,所以单元化化建设就显得十分重要,使得数据和应用走向异地成为了现实,具备了较好的扩展性和流量管控能力。在可用性方面,与金融云账务体系深度结合,借用账务系统的failover能力,使得蚂蚁花呗通过低成本改造就具备了同城灾备、异地灾备等高可用能力。任何一个单元的数据库出了问题、能够快速进行容灾切换、不会影响这个单元的用户进行蚂蚁花呗支付。在稳定性方面,借助于云客户平台的高稳定性的能力,将蚂蚁花呗客户签约形成的合约数据迁移进去,并预先写入云客户平台的缓存中,在大促高峰期缓存的命中率达到100%。同时,结合全链路压测平台,对蚂蚁花呗进行了能力摸高和持续的稳定性测试,发现系统的性能点反复进行优化,使得大促当天系统平稳运行。

所以一个良好的架构需要三个方面,首先需要良好的策略和思路知道去建设架构,其次还需要有足够的设施硬件去支持架构的运行,最后还需要相关方面的人才去执行。这才会是一个好的团队。

猜你喜欢

转载自www.cnblogs.com/wmy-666/p/11032629.html