从流量打标到机器打标 – 达达全链路压测探索与实战

  • 1. 背景
  • 2. 全链路压测 核心设计
    • 2.1 业界全链路压测
    • 2.2 达达全链路压测
    • 2.3 压测平台
  • 3. 全链路压测 落地
    • 3.1 链路梳理
    • 3.2 优化预案设定
    • 3.3 精细化压测模型构建
    • 3.4 压测预热
    • 3.5 压测复盘
  • 4. 总结与收益

 

1. 背景

达达集团是 2014年在上海成立的本地即时配送平台, 过去7年中稳步前进; 2020年双11大促时, 日配送完成单量突破 1000万; 单量的增长需要稳定性的保障, 全链路压测在达达稳定性保障中扮演着重要角色,本文将阐述达达全链路压测的核心设计与落地。

2. 全链路压测核心设计

2.1 业界全链路压测

达达原压测方案是: 搭建一套跟线上 1:1 的压测环境, 在这套环境中进行压测, 此方案技术难度低, 实现简单, 但弊端也明显: 人力及机器成本随着生产环境规模的变大而变大; 于是我们调研了业界主流的 【流量打标】方案, 该方案原理是: 在请求的流量(HTTP,RPC,MQ)上打标, 所打的标示随着请求在各个服务之间流转, 从而使得压测流量与线上流量隔离; 在数据隔离这块:
  • DB 层: 使用 影子库/影子表 隔离数据。
  • Cache 层: 使用 影子缓存 隔离数据;。
  • MQ 层: 使用 影子队列 隔离数据。

从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 流量打标)

但这个方案适用于中间件统一的场景;而达达内部使用了各种类型的中间件, 比如 ORM 就有 Mybatis, Hiberante, JPA, 版本也不一致; 并且存在大量异构程序, 有 Java 的, 有Python 的; 若要实现【流量打标】方案, 势必会有大量业务改造, 因此我们放弃此方案。

2.2 达达全链路压测

在分析达达自身架构特点后, 我们在 2019年一季度研发了基于【机器打标】的压测方案 (数据使用 影子DB&Redis&MQ 隔离)。
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 机器打标)

以下是实现此方案的流程:
  • 机器抽象化: 所有 DB&Redis&ES 机器抽象成一个一个节点; 节点信息如下图。
  • 机器信息注册到注册中心: 所有节点信息注册到注册中心。
  • 服务接入链路治理SDK: 所有服务接入 “链路治理SDK”, “链路治理SDK” 具有根据链路路由请求的能力。
从流量打标到机器打标 - 达达全链路压测探索与实战

图: 节点信息)

节点信息说明:
  • cloud_name: 资源名称, 全局唯一, 一个资源可包含多个节点, 比如 mysql_cluster001 就可以包含一个主节点, 多个从节点。
  • node_name: 节点名称, 全局唯一, 通常使用 host+port。
  • host: host 信息。
  • port: 端口信息。
  • role: 角色, w: 写节点, r: 读节点。
  • dada_type: 资源类别, 有 mysql, redis, es 等。
  • data_link: 链路类别, 有 benchmark(压测), base(生产)。
方案中最重要的是 “链路治理SDK”, 它的职责是: 根据链路类别路由请求流量; 如下图所示:从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 链路治理SDK)

它的启动流程如下:
  1. 注册服务节点信息。
  2. 根据本机的链路类别, 获取对应链路的存储节点信息。
  3. 根据存储节点信息, 建立起 DB,Redis, MQ 连接。
最终线上环境, 在机器维度形成两条链路, 处理生产流量的生产链路和处理压测流量的压测链路。
方案比较
下图是对【流量打标】【机器打标】的比较, 两种方案都有优缺点, 达达从安全及系统改造成本出发, 最终选择了【机器打标】方案。
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 方案比较)

2.3 压测平台

原压测方案使用 jmeter 进行压测, jmeter 属于老牌压测工具, 稳定性高且支持分布式; 但在压测场景复杂时,使用不够灵活; 达达的压测多数为复杂场景压测, 所以我们放弃原方案, 转而基于 jmeter 内核开发自己的压测平台; 以下是压测平台的整体架构:
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 压测平台架构)

主要由以下几个核心模块构成:
  • 前端服务: 提供 压测任务填写, 压测任务启动/停止, 压测结果展示等功能。
  • 压测任务解析器: 主要负责压测任务的解析, 存储。
  • 压测引擎: 负责将压测任务调度到执行器上执行 (定时执行 & 立即执行)。
  • 压测结果处理器: 负责对压测接口返回值解析, 统计, 异常处理, 并生成报表。
新压测平台的优势在于: 具有可视化的操作界面, 压测结果实时动态产出; 研发人员在压测平台配置 “发压性能参数”, “造数据脚本” 就能直接执行。
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 压测平台操作界面)

 

压测引擎在施压时, 对应压测结果 (TPS&响应&错误率) 会实时展示到前端界面。
从流量打标到机器打标 - 达达全链路压测探索与实战

图: 压测平台结果输出)

3. 全链路压测落地

整个全链路压测的落地分成: 压测前, 压测中, 压测后:
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 压测落地方案)

其中 压测前 有三个关键点: 压测链路梳理, 优化预案设定, 精细化压测模型。

3.1 链路梳理

链路的梳理非常重要, 它决定着压测链路需要部署哪些服务, 压测时哪些服务需要被关注。
以前达达通过人肉的方式梳理链路, 但是这种方案效率低, 不准确, 工作量大, 且当生产环境链路变更时, 我们不能即时感知到;  后面引入 APM(PinPoint), APM 有梳理链路的功能。
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 链路梳理)

但此方案还是没解决: “实时感知链路变更” 的问题; 为此我们在开发环境拉了条链路, 定时发请求以检测是否链路通畅; 若链路依赖有变化, 我们就能立刻知道。

3.2 优化预案设定

俗话说: 不打无准备之战, 压测就是为了提前发现高负载时系统可能出现的性能隐患, 那如何解决性能隐患呢? 通常在压测之前我们会准备一些性能优化预案, 常用预案如下:
  • 线程池/连接池 打满: 扩容线程池大小(服务CPU未超过阈值时) / 扩容业务服务。
  • Mysql 主从延迟: Mysql BinLog 调优 -> 升级机器配置 -> 垂直拆库 -> 水平拆库。
  • Redis 带宽打满: 带宽自动扩容。
  • MQ 消息堆积: 扩容消费消息的服务方。
因过去几年的业务的发展, 导致生产环境数据库单表单库的数据量一直在增长, 达达物流系统多次碰到 Mysql 主从延迟 ; 目前最常用的优化方案是  “Mysql BinLog 调优”,  此方案主要调优以下两个参数:
  • binlog_group_commit_sync_delay: 表示事务提交后, 等待多少时间, binlog 再同步到磁盘, 默认0, 表示不等待(单位微秒)。
  • binlog_group_commit_sync_no_delay_count: 表示等待多少事务提交后, binlog 再同步到磁盘。
但此调优方案也有弊端: 参数调优后, 接口响应会有一定提升(如下图); 所以调优时需考虑业务能否容忍接口响应的上升。
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 接口响应上升)

3.3 精细化压测模型构建

随着业务的发展, 压测模型也在不断演进迭代中; 从一开始 “使用虚拟骑士, 单一按照接口TPS目标值压测”  到现在 “模拟生产活跃骑士, 引入时间&空间因素 构建压测模型”, 模型越发精准。模型分成两类:
  • 数据模型: 骑士数据, 商户数据, 订单数据。
  • 流量模型: 订单下发, 配送履约。
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 压测模型)

数据模型: 
 把生产上活跃骑士&商户&订单导入影子库, 对这批数据进行清洗, 去除敏感信息(手机号, 地址信息等), 用这些数据进行压测; 此方案简单且能最真实的还原生产环境。
流量模型:
业界常用 【流量回放】方案, 将大促时生产环境的流量存储下来, 然后在压测环境进行回放。
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 流量回放)

此方案适用于读接口的压测, 但是达达的业务场景复杂, 主流程接口多写少读; 所以直接使用此方案肯定不行。
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 业务主流程)

鉴于不能直接使用【流量回放】, 达达选择了【人工构造流量】。影响构造流量真实性主要有两大因素: 时间, 空间。
时间:
在时间上, 达达一天有三个高峰期: 早&午&晚高峰, 每个高峰期 各个接口处于不同状态:
  • 早高峰: 发单, 接单, 订单详情 的请求量处于高峰, 其他接口请求量一般。
  • 午&晚高峰: 订单详情, 取货, 完成 的请求量处于高峰, 其他接口请求量一般。
从流量打标到机器打标 - 达达全链路压测探索与实战

(图: 主流程接口请求量分布)

所以压测时, 达达根据业务接口三个高峰期的特点, 设计两个压测场景(午高峰与晚高峰接口状态类似, 合并成一个压测场景), 进行压测。
空间:
在空间上, 订单与骑士不均匀的分布在各地, 有些区域人多单少, 有些区域人少单多, 而对系统影响最大的是人多单多的热点区域。
从流量打标到机器打标 - 达达全链路压测探索与实战

图: 订单热力分布)

达达有个 查看周围X公里订单 的接口, 这个接口的性能跟 热点区域的个数, 每个热点区域内的单量, 每个热点区域内的运力 关系比较大; 为了搞清这几点, 我们分析大促时生产的流量, 根据 geohash 把全国划分成一个个正方形区域, 统计每个正方形区域内的订单及运力; 最后再在压测环境还原并放大。
然后就是 压测中, 主要有这几块: 接口验证, 压测预热, 压测实施, 性能指标观察, 性能问题记录。其中压测预热非常重要, 它决定了压测结果的准确性。

3.4 压测预热

早期每次压测得到的接口响应都比生产环境慢一点, 后面发现: 生产环境的部分数据是热数据, 而压测环境全是冷数据, 这导致压测刚开始进行时, 接口响应偏高, 等过了一分钟后, 响应逐渐降低并趋于平稳; 后面引入压测预热, 使得压测环境的数据, 部分是热数据, 部分是冷数据, 以达到跟生产环境数据一致的效果。
最后就是 压测后; 压测后主要是: 压测报告的生成, 性能隐患定位与优化, 系统容量预估, 压测复盘。下面说一下压测复盘。

3.5 压测复盘

每次的大促复盘, 都能找到下次压测优化的方向; 复盘中最重要的是: 比较 生产与压测环境的 接口TPS&响应,中间件核心指标; 通过这些数据的比较来验证并优化 压测模型。

4. 总结与收益

全链路压测从 2019年一季度立项, 已经历了 4次大促压测考验, 并且完成了目标; 而在全链路压测实施的过程中, 我们认为有三大关键:
  • 流量的隔离: 基于【流量打标】, 达达研发出【机器打标】的隔离方案, 使得压测流量与生产流量完全隔离。
  • 数据的隔离: 基于安全考虑, 达达选择 影子库, 影子缓存, 影子队列, 从而实现生产与压测数据的彻底隔离; 得益于这一点, 压测的实施在白天/晚上随时可进行。
  • 精细化压测模型构建: 压测模型是否跟生产环境相近, 直接影响了压测结果的准确性; 我们参考生产环境大促高峰期的流量, 从时间&空间维度分析, 制作出与大促时相近的压测流量, 从而保证数据模型的真实性。
整个项目的收益也非常明显, 具体从以下两方面分别来看:
  • 稳定性: 目前连续两年大促, 全链路压测每次都能挖掘出10 多项性能隐患, 从而保障了大促的平稳度过。
  • 效率: 相比原先搭建一套独立压测环境的方案, 现在的方案在机器成本上降低 40%, 人效上提升 65%。
当然此方案还有待提升的点, 比如 成本问题; 目前从安全角度出发, 达达通过影子库/缓存实现数据的隔离, 但影子库相比影子表方案机器成本高, 那如何在 安全与成本之间找到平衡, 是压测优化的方向; 另外, 除了挖掘系统隐患点, 全链路压测能否给 “智能运力调度” “运力的合理配置” 提出更多建议, 这也是我们思考的。

作者简介

  • 徐建康: 达达集团高级工程师, 2018年加入达达集团, 负责 达达 2019年&2020年 4次大促压测, 目前投入到 达达智配 项目中, 致力于为即时配送行业提供优质的软件。
  • 顾宝碗: 达达集团架构师, 2019年加入达达集团, 负责 微服务治理,数据源高可用等模块。
  • 张鹏: 达达集团高级测试工程师, 2018年加入达达集团, 负责达达即时配送的测试。
 

本文转载自达达集团技术 ,已获取转载授权,【点击跳转查看原文】

(0)
上一篇 2022年12月19日 下午8:17
下一篇 2023年2月7日 下午4:24

相关推荐

发表评论

邮箱地址不会被公开。