spark 大型项目实战(五):用户访问session分析(五) --数据表设计

本文主要是介绍spark 大型项目实战(五):用户访问session分析(五) --数据表设计,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

文章地址:http://www.haha174.top/article/details/252047

本篇文章,是大数据项目开发流程的数据设计环节。在进行完了数据调研、需求分析、技术实现方案,进行数据设计。数据设计,往往包含两个环节,第一个呢,就是说,我们的上游数据,就是数据调研环节看到的项目基于的基础数据,是否要针对其开发一些Hive ETL,对数据进行进一步的处理和转换,从而让我们能够更加方便的和快速的去计算和执行spark作业;第二个,就是要设计spark作业要保存结果数据的业务表的结构,从而让J2EE平台可以使用业务表中的数据,来为使用者展示任务执行结果。在本项目中,我们所有的数据设计环节,只会涉及第二个,不会涉及第一个。因为我们为了突出课程重点,也就是spark。所以主要还是集中在spark上面,就不要花时间去做Hive ETL了。设计MySQL中的业务表的结构。第一表:session_aggr_stat表,存储第一个功能,session聚合统计的结果
CREATE TABLE `session_aggr_stat` (`task_id` int(11) NOT NULL,`session_count` int(11) DEFAULT NULL,`1s_3s` double DEFAULT NULL,`4s_6s` double DEFAULT NULL,`7s_9s` double DEFAULT NULL,`10s_30s` double DEFAULT NULL,`30s_60s` double DEFAULT NULL,`1m_3m` double DEFAULT NULL,`3m_10m` double DEFAULT NULL,`10m_30m` double DEFAULT NULL,`30m` double DEFAULT NULL,`1_3` double DEFAULT NULL,`4_6` double DEFAULT NULL,`7_9` double DEFAULT NULL,`10_30` double DEFAULT NULL,`30_60` double DEFAULT NULL,`60` double DEFAULT NULL,PRIMARY KEY (`task_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8第二个表:session_random_extract表,存储我们的按时间比例随机抽取功能抽取出来的1000个session
CREATE TABLE `session_random_extract` (`task_id` int(11) NOT NULL,`session_id` varchar(255) DEFAULT NULL,`start_time` varchar(50) DEFAULT NULL,`end_time` varchar(50) DEFAULT NULL,`search_keywords` varchar(255) DEFAULT NULL,PRIMARY KEY (`task_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8第三个表:top10_category表,存储按点击、下单和支付排序出来的top10品类数据
CREATE TABLE `top10_category` (`task_id` int(11) NOT NULL,`category_id` int(11) DEFAULT NULL,`click_count` int(11) DEFAULT NULL,`order_count` int(11) DEFAULT NULL,`pay_count` int(11) DEFAULT NULL,PRIMARY KEY (`task_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8第四个表:top10_category_session表,存储top10每个品类的点击top10的session
CREATE TABLE `top10_category_session` (`task_id` int(11) NO NULL,`category_id` int(11) DEFAULT NULL,`session_id` varchar(255) DEFAULT NULL,`click_count` int(11) DEFAULT NULL,PRIMARY KEY (`task_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8最后一张表:session_detail,用来存储随机抽取出来的session的明细数据、top10品类的session的明细数据
CREATE TABLE `session_detail` (`task_id` int(11) NOT NULL,`user_id` int(11) DEFAULT NULL,`session_id` varchar(255) DEFAULT NULL,`page_id` int(11) DEFAULT NULL,`action_time` varchar(255) DEFAULT NULL,`search_keyword` varchar(255) DEFAULT NULL,`click_category_id` int(11) DEFAULT NULL,`click_product_id` int(11) DEFAULT NULL,`order_category_ids` varchar(255) DEFAULT NULL,`order_product_ids` varchar(255) DEFAULT NULL,`pay_category_ids` varchar(255) DEFAULT NULL,`pay_product_ids` varchar(255) DEFAULT NULL,PRIMARY KEY (`task_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8额外的一张表:task表,用来存储J2EE平台插入其中的任务的信息
CREATE TABLE `task` (`task_id` int(11) NOT NULL AUTO_INCREMENT,`task_name` varchar(255) DEFAULT NULL,`create_time` varchar(255) DEFAULT NULL,`start_time` varchar(255) DEFAULT NULL,`finish_time` varchar(255) DEFAULT NULL,`task_type` varchar(255) DEFAULT NULL,`task_status` varchar(255) DEFAULT NULL,`task_param` text,PRIMARY KEY (`task_id`)
) ENGINE=InnoDB AUTO_INCREMENT=0 DEFAULT CHARSET=utf8在数据设计以后,就正式进入一个漫长的环节,就是编码实现阶段,coding阶段。

欢迎关注,更多福利

这里写图片描述

这篇关于spark 大型项目实战(五):用户访问session分析(五) --数据表设计的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1097552

相关文章

Nginx分布式部署流程分析

《Nginx分布式部署流程分析》文章介绍Nginx在分布式部署中的反向代理和负载均衡作用,用于分发请求、减轻服务器压力及解决session共享问题,涵盖配置方法、策略及Java项目应用,并提及分布式事... 目录分布式部署NginxJava中的代理代理分为正向代理和反向代理正向代理反向代理Nginx应用场景

Python版本信息获取方法详解与实战

《Python版本信息获取方法详解与实战》在Python开发中,获取Python版本号是调试、兼容性检查和版本控制的重要基础操作,本文详细介绍了如何使用sys和platform模块获取Python的主... 目录1. python版本号获取基础2. 使用sys模块获取版本信息2.1 sys模块概述2.1.1

Redis中的有序集合zset从使用到原理分析

《Redis中的有序集合zset从使用到原理分析》Redis有序集合(zset)是字符串与分值的有序映射,通过跳跃表和哈希表结合实现高效有序性管理,适用于排行榜、延迟队列等场景,其时间复杂度低,内存占... 目录开篇:排行榜背后的秘密一、zset的基本使用1.1 常用命令1.2 Java客户端示例二、zse

Redis中的AOF原理及分析

《Redis中的AOF原理及分析》Redis的AOF通过记录所有写操作命令实现持久化,支持always/everysec/no三种同步策略,重写机制优化文件体积,与RDB结合可平衡数据安全与恢复效率... 目录开篇:从日记本到AOF一、AOF的基本执行流程1. 命令执行与记录2. AOF重写机制二、AOF的

Spring Boot分层架构详解之从Controller到Service再到Mapper的完整流程(用户管理系统为例)

《SpringBoot分层架构详解之从Controller到Service再到Mapper的完整流程(用户管理系统为例)》本文将以一个实际案例(用户管理系统)为例,详细解析SpringBoot中Co... 目录引言:为什么学习Spring Boot分层架构?第一部分:Spring Boot的整体架构1.1

Python爬虫HTTPS使用requests,httpx,aiohttp实战中的证书异步等问题

《Python爬虫HTTPS使用requests,httpx,aiohttp实战中的证书异步等问题》在爬虫工程里,“HTTPS”是绕不开的话题,HTTPS为传输加密提供保护,同时也给爬虫带来证书校验、... 目录一、核心问题与优先级检查(先问三件事)二、基础示例:requests 与证书处理三、高并发选型:

MyBatis Plus大数据量查询慢原因分析及解决

《MyBatisPlus大数据量查询慢原因分析及解决》大数据量查询慢常因全表扫描、分页不当、索引缺失、内存占用高及ORM开销,优化措施包括分页查询、流式读取、SQL优化、批处理、多数据源、结果集二次... 目录大数据量查询慢的常见原因优化方案高级方案配置调优监控与诊断总结大数据量查询慢的常见原因MyBAT

k8s admin用户生成token方式

《k8sadmin用户生成token方式》用户使用Kubernetes1.28创建admin命名空间并部署,通过ClusterRoleBinding为jenkins用户授权集群级权限,生成并获取其t... 目录k8s admin用户生成token创建一个admin的命名空间查看k8s namespace 的

分析 Java Stream 的 peek使用实践与副作用处理方案

《分析JavaStream的peek使用实践与副作用处理方案》StreamAPI的peek操作是中间操作,用于观察元素但不终止流,其副作用风险包括线程安全、顺序混乱及性能问题,合理使用场景有限... 目录一、peek 操作的本质:有状态的中间操作二、副作用的定义与风险场景1. 并行流下的线程安全问题2. 顺

MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决

《MyBatis/MyBatis-Plus同事务循环调用存储过程获取主键重复问题分析及解决》MyBatis默认开启一级缓存,同一事务中循环调用查询方法时会重复使用缓存数据,导致获取的序列主键值均为1,... 目录问题原因解决办法如果是存储过程总结问题myBATis有如下代码获取序列作为主键IdMappe