沸腾了!阿里双11万亿流量的分布式缓存设计实践,电子版参考指南开源了!!!

每年双11,天猫成交额都会一次一次地刷新世界纪录,阿里巴巴核心系统100%上云,撑住了双11的世界级流量洪峰。在这一流量战场上,阿里可谓是华山论剑的最大赢家。今天我把阿里针对淘宝双十一万亿级流量下的分布式缓存文档共享出来,全面解析阿里双11的武功秘籍。

阿里双十一的四种应用场景

MDB 典型应用场景

  1. 用于缓存,降低对后端数据库的访问压力。
  2. 临时数据存储,部分数据丢失不会对业务产生较大影响。
  3. 读多写少,读qps达到万级别以上。

FastDump 典型应用场景

  1. 周期性地将离线数据快速地导入到Tair集群中,快速使用到新的数据。
  2. 读取低延迟,不能有毛刺。

LDB 典型应用场景

  1. 通用kv存储,交易快照,安全风控等。
  2. 存储黑白单数据,读qps很高。
  3. 计数器功能,更新非常频繁,且数据不可丢失。

RDB 典型应用场景

  1. 复杂的数据结构的缓存与存储。
  2. 如播放列表,直播间等。

双十一技术挑战

  • 访问峰值增速:Tair峰值 > 交易峰值 > 总GMV
  • 多地域多单元
  • 体验与成本
  • 稳定性,高可用

性能与成本

内存数据结构

  1. cache meta
  2. slab_mabager
  3. hashmap
  4. pages

锁的影响

  • 细粒度锁(fine-grained locks)
  • 无锁数据结构(lock-free data structures)
  • CPU本地数据结构(per-CPU data structures)
  • 读拷贝更新(RCU)

用户态协议栈+内存合并

客户端优化

  • 网络框架替换,适配协程

    • mina =netty
    • 吞吐量提升40%+
  • 序列化优化

    • 集成kryo和hessian
    • 吞吐量提升16%+

内存网格

  • 业务场景

    • 读写量超大
    • 大量本地计算
    • 提供高性能计算快速IO能 力
  • 特性

    • 数据本地性
    • 读穿透
    • Write Through / Write Behind/merge
    • 多单元replication
  • 效果

    • 读取降至27.68%
    • 写入降至55.75%

缓存难题——热点

缓存击穿

  • 突发流量

    • 热门商品,店铺
    • 时事新闻
    • 各类压测
  • 缓存

    • 被击穿
    • 限流
  • 结局

    • 全系统崩溃
  • 根源

    • 访问热点

热点散列

  • 热点类型
    • 频率热点
    • 流量热点

热点散列效果

  • 热点QPS数
  • 热点流量
  • 热点集群散列效果对比

写热点

  • 热点合并
    • 实时识别
    • 合并写引擎

阿里巴巴的这个双十一万亿流量分布式缓存,完整呈现如何设计响应亿级请求。

教你如何构建高并发、大流量系统方能经受起亿级线上用户流量的真实考验。

由于头条发文图片质量可能会受到影响(图片会被压缩导致清晰度下降),完整版的阿里双十一万亿流量分布式缓存设计,我在这里做一个开源式的分享,用以帮助到更多想从大厂技术层面彻底提升自身硬实力的互联网从业者。

快速入手通道:(点这里)下载!诚意满满!!!

Java面试精选题、架构实战文档传送门:https://docs.qq.com/doc/DRW1nUkdhZG5zeGVi

整理不易,觉得有帮助的朋友可以帮忙点赞分享支持一下小编~

你的支持,我的动力;祝各位前程似锦,offer不断!!!

猜你喜欢

转载自blog.csdn.net/weixin_45784983/article/details/108581541