StarRocks实战——携程火车票指标平台建设

2024-04-04 15:44

本文主要是介绍StarRocks实战——携程火车票指标平台建设,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

前言

一、早期OLAP架构与痛点

二、指标平台重构整体设计

2.1 指标查询过程

2.1.1 明细类子查询

2.1.2 汇总类子查询

2.1.3 “缓存”

2.2 数据同步

三、Starrocks使用经验分享

3.1 建表经验

3.2 数据查询

3.3 函数问题

四、查询性能大幅提升

五、 后续优化方向


   原文大佬介绍的这篇火车票指标平台建设有借鉴意义,现摘抄下来用作沉淀学习。如有侵权,请告知~

前言

    携程火车票事业群运营着铁友、携程火车票和去哪儿火车票等重要的业务和品牌,目前正在积极地拓展海外市场。火车票的指标平台旨在为业务人员提供便捷的指标查询服务,让业务人员能够快速灵活的获得这些业务和品牌相关的指标数据。

一、早期OLAP架构与痛点

  火车票事业群的业务涵盖了火车票、国际火车票、汽车票(含船票)等产品,错综复杂的业务也产生了多种多样订单和行为数据,通过对这些数据的分析可以揭示当前业务的发展现状,也可以为未来的发展提供方向指引。

  早些时候事业群开发过一套指标平台,根据不同的指标类型使用了3套数据库引擎,分别是ClickHouse,Apache Kylin (以下简称 Kylin)和 Presto,如下图所示:

   在旧版的指标平台中,为了提升查询性能使用了ClickHouse,Kylin和Presto等多种存储和查询引擎,数据层混合使用了明细层和轻度汇总层,由此带来的问题有:

  • 指标数据源混乱,容易造成口径不一致,维护成本大;
  • 学习成本高,BI 同学录入指标不仅需要了解不同存储的区别,还需要掌握不同引擎的数据同步方法
  • 架构不合理,指标平台将查询的中间结果通过jdbc写入mysql后再到服务端用java做汇总计算,处理链路过长,整体性能非常差,导致部分指标查询需要半小时以上的等待时间。

  鉴于这些原因,无论是用户(运营人员)还是指标开发人员,都面临着使用极差的问题,在这种情况下,决定使用基于一种查询速度快和使用简单的分布式数据库来重构指标平台。

二、指标平台重构整体设计

   重构指标平台首先考虑的是将多套存储合并成一套, 虽然ClickHouse 和 Kylin 已经足够强大,但是不足也很明显。比如 ClickHouse 的 join 性能不尽如人意,并发性能差,大量的查询很容易将 CPU打满;Kylin 是一个分析引擎,不支持增删改操作,修改数据需要重新导入,修改 schema 需要重建 Cube(ETL成本很高),其次 Kylin需要预先创建模型加载数据到 Cube 后才可进行查询,使用上需要具备一定的数仓知识。

于是将目光投向 StarRocks,StarRocks 是一款全场景的MPP数据库,相比ClickHouse等具有以下优点:

  • 性能强悍:查询速度快,多张亿级表Join也能秒级响应;
  • 使用简单:兼容 MySQL 协议,用户使用门槛低;
  • 支持高并发:满足大量用户同时查询;
  • 支持多种数据模型:明细、聚合、更新和主键模型,可灵活配置ETL任务
  • 支持物化视图:可以自动路由到命中的物化视图,用户无感知;
  • 支持多种导入方式:StreamLoad、SparkLoad、RoutineLoad,便于实时离线快速导入StarRocks,流批一体。

因此,重构后的结构如下:

   重构后的指标平台只有一个数据库,查询时利用StarRocks内部ETL将明细数据转存到临时表,后续的汇总从临时表查询,避免了反复扫描大表。

2.1 指标查询过程

  当一个指标查询请求发起时,由于指标属性和用户想查看的信息不同,根据查询参数将查询拆解成若干子查询,子查询分为明细和汇总两类。

2.1.1 明细类子查询

1)可累加的指标查询时间范围内的明细数据,以及去年和2019年同期的明细数据,这部分的明细会存储到临时表,后续查询都从这张表扫描,以避免对大表的频繁扫描;该表每天生成T+1 分区,防止增加分区失败导致当天的指标查询无法进行。

-tarpresqls "
ALTER TABLE ${table} ADD PARTITION if not exists p${partition}
VALUES [('${zdt.addDay(1).format("yyyy-MM-dd")}'),('${zdt.addDay(2).format("yyyy-MM-dd")}'));
" \

2)如果指标不可累加或 count(distinct)类,仅存储查询时间范围内的明细,不存储用户计算同环比的明细;

3) 当多个指标同时对相同维度进行查询时,将多个指标的数据Join后以宽表模式存储。

2.1.2 汇总类子查询

  这一类 sql 主要在明细的基础上根据用户的需要做相应的计算,相比旧版本在服务内部用java做汇总计算,这里全部借助了StarRocks,主要的汇总功能有:

  • a.指标卡汇总和同环比;
  • b.折线图和维度下钻;

2.1.3 “缓存”

   多维度特别是包含出发/到达城市组合的查询数据量非常大,耗时较长,同时避免相同的查询反复访问大表,我们增加了“缓存”功能,实现原理如下:

  • a.记录初次查询的指标信息,主要包括维度和维度值,时间范围,指标原始计算sql的md5值,以及是否查询成功;
  • b. 新的查询进入后,会在当天的记录中查找是否存在相同的查询。如果存在相同的查询,使用唯一的查询标识(groupkey)将当前查询指向上次已经执行过的查询。这样,可以直接读取上次查询的详细数据和汇总结果,从而提高查询效率。

    因此这里的缓存非真实意义上的缓存,而是直接调用相同查询的结果。

2.2 数据同步

  首先梳理了旧平台的数据源,从300+指标的逻辑sql中提取了公共的dwd和dim表51张,并将这些数据统一同步至StarRocks,而对于一些指标使用的dwd表只出现一次的,依然将dws同步过来。

  对于不同的hive表,使用了不同的StarRocks建表模型和同步方式,有以下几种:

  • a.全量同步:主要针对一些数据量小的表,例如 shareout_trn.dim_ibu_alliance,大小为 608k;
  • b.增量分区同步:每天同步 hive 表中 T-1 的分区,各分区之间独立;
  • c.更新同步:火车票 BU 的一些订单数据由于涉到预售和订单状态的变更,变更的数据时间跨度比较大,将跨度范围内的数据全部更新代价比较高,因此使用更新模型。

   数据导入更新模型直接需要计算T-1 和 T-2 分区有差异的数据,这里将所有字段使用concat_ws('|',***)拼接后取 hash值,之后Join找到hash值不一致的数据。

模型KEY设置:
UNIQUE KEY(`order_id`)
取两天有差异的数据:
select
t1.* 
from
(select … where d='${cur_day}') as t1
left join
(select … where d=’${pre_day}’) as t2
on t1.business_pk_id=t2.business_pk_id
where t1.hash_code!=t2.hash_code or t2.order_id is null
  • d. 每天同步当月数据:如国际后的访问数据量较小,每天一个分区会导致StarRocks 集群有很多小的bucket,分桶数太多会导致元数据压力比较大,数据导入导出时也会受到一些影响,因此按月设置分区,每天同步当月的数据。
时间范围:
startdate='${zdt.format("yyyy-MM-01")}'
endDate='${zdt.add(2,1).format("yyyy-MM-01")}'
表设计:
PARTITION BY RANGE(dt)(Start("2019-01-01") End("2023-03-01") Every(Interval 1 month))
DISTRIBUTED BY HASH(分桶字段) BUCKETS 桶的数量
PROPERTIES (
"dynamic_partition.enable" = "true",
"dynamic_partition.prefix" = "p",
"dynamic_partition.time_unit" = "month",
"dynamic_partition.end" = "1");
datax配置:
-temporary_partitions "tp${partition}" \
-tarpresqls "
ALTER TABLE ${table} DROP TEMPORARY PARTITION if exists tp${partition};
ALTER TABLE ${table} ADD PARTITION if not exists p${partition} VALUES [('${startdate}'),('${endDate}'));
ALTER TABLE ${table} ADD TEMPORARY PARTITION tp${partition} VALUES [('${startdate}'),('${endDate}'));
" \
-tarpostsqls "
ALTER TABLE ${table} REPLACE PARTITION (p${partition}) WITH TEMPORARY PARTITION (tp${partition});"

    此外对于 UBT类数据,数据量及非常大,并且常见用于查询PV,UV 和停留时长等比较固定的场景,于是我们从中抽取出三张表:

  • ubt_for_pv: 每天按维度汇总 count(uid),每天数据大小只有几十 K;
  • ubt_for_duration: 每天按维度汇总 sum(duration),如需要计算平均停留时长除以对应的 pv 即可;
  • ubt_for_uv: 每天按维度去重,尽最大可能减少数据量。

     最后鉴于上游表的迭代可能带来的数据的不稳定,对需要同步的表的数据量做了监控,若发现当天的数据量波动超过3sigma,监控任务自动发出邮件告警,这些 job同步都在15 分钟内完成。

三、Starrocks使用经验分享

   在指标平台重构的过程中也遇到了一些问题,与数据和查询相关的有以下几个:

3.1 建表经验

   首先是buckets设置不合理,多数是设置过多,通常一个桶的数据量在500MB~1GB 为佳,个别表设置的桶数量太少,导致查询时间长;其次是分区不合理,有些表没有设置分区,有些设置的分区后每个分区数据量很小,优化建议是将不常访问的数据按月分区,经常访问的数据按日分区。

3.2 数据查询

   由于指标的查询sql之前是针对不同引擎编写,很多引擎是没有索引的,比如Presto。StarRocks有丰富的索引功能,统一至StarRocks 希望利用索引加速查询,因此过滤条件中最好不要加函数,比如select c1 from t1 where upper(employeeid) = upper(' s1')修改成select c1 from t1 where employeeid in(upper(' s1'), lower(' s1'))。

 另外很多sql没有使用分区,在StarRocks中将会全表扫描造成资源浪费

3.3 函数问题

   StarRocks的split函数结果的下标从1开始,而 sparksql 等引擎对应的是从 0 开始,导致 sql 在 StarRocks执行查询的时候不报错但是结果错误。

select split('a,b,c',',')[0] StarRocks查询结果为空,其他引擎查询结果为‘a’
select split('a,b,c',',')[1] StarRocks查询结果为‘a’,其他引擎查询结果为‘b’

四、查询性能大幅提升

    指标平台的重构主要是为了解决查询性能问题,并且重构后也基本达到了预期。重构之后,复杂查询需要数分钟的时间才能完成,特别对于火车票相关指标,诸如出票票量指标,如果带上出发和到达城市查询,可能需要等待 30 分钟以上,并且查询失败率较高。而在重构后,查询时间大大缩短,复杂查询在 10s 左右,并且 P99 在 2 秒之内,因此整体体验得到显著提升,用户查询次数相比改造前也有了翻倍的增长。

   此外,现在新指标系统还丰富了更多功能,比如同环比和维度下钻计算。得益于StarRocks的并发能力,可以在生成子查询SQL 后并发提交,从而大幅度减少响应时间,使得用户在进行维度下钻时几乎无需等待即可快速获取所需数据。

五、 后续优化方向

1)目前,UV 类的 Count Distinct 查询是基于存储了大量明细数据的方式进行的。然而,对于部分指标,可以尝试使用Bitmap 来减少不必要的明细数据存储空间,并且更重要的是可以提高查询速度。在接下来的工作中,计划尝试这种方案,以进一步优化 UV 类指标的查询性能。

2)对于全量或增量更新的表使用聚合模型,聚合模型会对导入后具有相同维度的数据做预聚合,查询的时候减少扫描数据的行数达到提升查询速度的目的。

3)当前的指标平台计算过程将所需的数据写入临时表,后续改成使用物化视图,在达到同样效果的情况下减少了复杂度

参考文章:

干货 | 提速10倍+,StarRocks 指标平台在携程火车票的实践

这篇关于StarRocks实战——携程火车票指标平台建设的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/876189

相关文章

Java Spring 中的监听器Listener详解与实战教程

《JavaSpring中的监听器Listener详解与实战教程》Spring提供了多种监听器机制,可以用于监听应用生命周期、会话生命周期和请求处理过程中的事件,:本文主要介绍JavaSprin... 目录一、监听器的作用1.1 应用生命周期管理1.2 会话管理1.3 请求处理监控二、创建监听器2.1 Ser

Apache 高级配置实战之从连接保持到日志分析的完整指南

《Apache高级配置实战之从连接保持到日志分析的完整指南》本文带你从连接保持优化开始,一路走到访问控制和日志管理,最后用AWStats来分析网站数据,对Apache配置日志分析相关知识感兴趣的朋友... 目录Apache 高级配置实战:从连接保持到日志分析的完整指南前言 一、Apache 连接保持 - 性

MQTT SpringBoot整合实战教程

《MQTTSpringBoot整合实战教程》:本文主要介绍MQTTSpringBoot整合实战教程,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考... 目录MQTT-SpringBoot创建简单 SpringBoot 项目导入必须依赖增加MQTT相关配置编写

JavaScript实战:智能密码生成器开发指南

本文通过JavaScript实战开发智能密码生成器,详解如何运用crypto.getRandomValues实现加密级随机密码生成,包含多字符组合、安全强度可视化、易混淆字符排除等企业级功能。学习密码强度检测算法与信息熵计算原理,获取可直接嵌入项目的完整代码,提升Web应用的安全开发能力 目录

Redis迷你版微信抢红包实战

《Redis迷你版微信抢红包实战》本文主要介绍了Redis迷你版微信抢红包实战... 目录1 思路分析1.1hCckRX 流程1.2 注意点①拆红包:二倍均值算法②发红包:list③抢红包&记录:hset2 代码实现2.1 拆红包splitRedPacket2.2 发红包sendRedPacket2.3 抢

springboot项目redis缓存异常实战案例详解(提供解决方案)

《springboot项目redis缓存异常实战案例详解(提供解决方案)》redis基本上是高并发场景上会用到的一个高性能的key-value数据库,属于nosql类型,一般用作于缓存,一般是结合数据... 目录缓存异常实践案例缓存穿透问题缓存击穿问题(其中也解决了穿透问题)完整代码缓存异常实践案例Red

Spring Boot拦截器Interceptor与过滤器Filter深度解析(区别、实现与实战指南)

《SpringBoot拦截器Interceptor与过滤器Filter深度解析(区别、实现与实战指南)》:本文主要介绍SpringBoot拦截器Interceptor与过滤器Filter深度解析... 目录Spring Boot拦截器(Interceptor)与过滤器(Filter)深度解析:区别、实现与实

基于C#实现MQTT通信实战

《基于C#实现MQTT通信实战》MQTT消息队列遥测传输,在物联网领域应用的很广泛,它是基于Publish/Subscribe模式,具有简单易用,支持QoS,传输效率高的特点,下面我们就来看看C#实现... 目录1、连接主机2、订阅消息3、发布消息MQTT(Message Queueing Telemetr

Nginx使用Keepalived部署web集群(高可用高性能负载均衡)实战案例

《Nginx使用Keepalived部署web集群(高可用高性能负载均衡)实战案例》本文介绍Nginx+Keepalived实现Web集群高可用负载均衡的部署与测试,涵盖架构设计、环境配置、健康检查、... 目录前言一、架构设计二、环境准备三、案例部署配置 前端 Keepalived配置 前端 Nginx

Python日期和时间完全指南与实战

《Python日期和时间完全指南与实战》在软件开发领域,‌日期时间处理‌是贯穿系统设计全生命周期的重要基础能力,本文将深入解析Python日期时间的‌七大核心模块‌,通过‌企业级代码案例‌揭示最佳实践... 目录一、背景与核心价值二、核心模块详解与实战2.1 datetime模块四剑客2.2 时区处理黄金法