六步搭建数据化运营知识体系

2023-10-13 22:20

本文主要是介绍六步搭建数据化运营知识体系,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!


六步搭建数据化运营知识体系

数据化运营的概念随着大数据时代的到来被炒得越来越火热,提到数据分析、数据运营让很多产品、运营新人觉得瞬间高大上很多。随着数据概念的火热,如增长黑客、GrowingIO等一系列的数据分析指导产品增长的书籍、产品变得越来越受人追捧。对于互联网行业来说,无论是产品经理还是运营,都需要具备一定的数据运营能力,本文将帮助没有数据化思维的小伙伴搭建基础的数据化运营体系。

本文会按照上图中的数据化运营业务流程进行分析,从明确目标、数据指标制定、数据获取、数据分析、形成策略、验证优化这六个方面来搭建数据化运营的知识体系。

一、明确目标

任何一次有价值的数据运营行为都是由目的性的,这个目的可以是短期、一次性希望达成的目标,也可以是长期性、周期性希望达成的目的。无论如何一定要有目标,目标指导数据运营的思路和方法。

1.1数据化运营的本质

这里先抛出数据化运营的本质:数据化运营的本质是对用户的运营,数据都源自于用户的属性和行为。

为什么数据化运营本质是用户运营?拿增长黑客中海盗船模型来说,产品生命周期全过程就是一个用户获取、用户活跃、用户留存、付费转化、口碑传播的闭环流程。这流程中每一个节点其实都是对用户行为的激发以完成每一个阶段的目标。产品所获取的数据也都是用户使用产品生产的数据,所以数据化运营的本质就是通过用户行为分析指导产品成长。

1.2数据化运营的目的

上面提到每一次数据运营任务都要有目的性,那么根据数据运营场景划分,大致可分为以下4种:

1.针对具体某一指标进行数据化运营

这种情况往往出现在boss要求短期内实现数据指标量级上的一个跨越,如新增用户达到100万、活跃率达到30%,留存率达到20%、转化率达到5%等等。

这类数据化运营目的是短期或一次性的,通常通过对数据分析找到用户刺激方式,如活动等让产品短期内迅速达到指定目标。

2.掌握产品生态

掌握产品生态指将数据运营应用到日常工作流程当中,当做日常生产流程中的一部分。这样做的目的主要是通过数据沉淀、数据分析了解产品的用户群有哪些,用户分类是什么情况,利用产品对用户的精细化运营。

此外还有一个目的就是了解产品生态的上下游,如上游用户获取情况,下游用户的转化和分发情况,对于平台类产品或需要上下游业务支撑的产品来说,对于产品后期发展有很大的价值。

3.发现潜在方向

大数据时代,尤其是大数据产品的需求发现往往是通过数据分析结果发现用户需求,从而衍生出来解决用户需求的产品。所以,有些情况下通过对数据的分析可以发现更多用户没有通过表象展现出来的问题和痛点。拿数据挖掘中经典的啤酒尿布案例来说,就是通过对用户购买数据的关联性分析,从而发现了尿布和啤酒两个看似毫无关系的物品之间的潜在联系,从而通过一定的运营策略提升两者的购买量。

所以通过数据化运营,也可以找到用户的潜在需求,从而诞生一款解决用户问题的新功能或新产品。

4.通过问题解决问题

某婚恋网站近期有大量用户投诉有女性用户作为酒托卖酒,作为产品的负责人,需要去解决酒托用户问题,减少用户投诉。那么如何通过举报的女性用户去定位更多的酒托呢?

首先通过问题去定位数据,找到被举报的酒托用户行为数据和属性,发现这类用户近期频繁添加大量男性用户,每次同时与多个男性用户同时聊天,并且聊天时间较短。结合用户行为及用户属性,从用户数据库中定位疑似酒托用户,再通过数据监控去识别是否为真实酒托。

上述这个案例就是通过问题去定位数据,通过数据运营找到解决问题的方法,从而更好的解决问题。

二、数据指标制定

2.1明确指标

在这里要区分宏观指标和可行动指标的区别:

宏观指标,通常是boss或leader提出的指标,这类指标一般没有可执行性,如leader分配任务要求你本月让产品盈利20万。这个指标并没有实际指导价值。

可行动指标,通常是可以执行的指标,如通过微信引流新用户10万,提升付费转化率到5%等,这些是可以找到具体执行策略的指标。

在日常工作当中会经常遇到将宏观指标转化为可行动指标的问题,所以用什么方法去对指标进行转化就成为了核心问题。这里推荐使用OKR指标拆解法,通过OKR体系,将宏观指标进行拆解,分解成一个个可行动指标,通过对可行动指标的达成,最终达成宏观指标要求。关于OKR指标拆解方法可参考网上结构化思维的相关介绍。

2.2指标构成

本文对常用的数据指标进行了总结和分析,请注意本文提出的所有数据指标都是基于常用和大众的数据指标,根据不同的产品和不同业务请具体指标具体分析,不要盲目照搬套用。

1.基础指标

基础指标体系参考了AARRR模型的五个阶段,

拉新:新用户注册数

活跃:用户登录数(日、周、月)

留存:流失用户数(日、周、月)

转化:付费用户数

传播:分享用户数(微信分享、微博分享等,具体参考产品分享功能设计)

2.用户属性

用户画像,依据用户属性和用户行为构建的用户画像,用户画像的目的是分析用户行为特征,对用户进行分类,精细化运营用户。对于社区产品可以有针对性的运营KOL用户,对于电商产品可以对用户做精准化推荐。

终端画像,这里的终端特指移动智能终端即智能手机,通过对用户群终端分析,了解用户群构成,如操作系统、手机型号等,更利用发现用户行为偏好。

3.用户来源

渠道分布,用户通过哪个渠道下载了APP,登录并注册APP。

渠道效果,每个渠道的获取用户数,转化成为注册用户的数量,判断渠道获取新用户质量好坏。

版本分布,用户使用APP不同版本的用户占比,通过分析可以判断产品版本更新后是否出现造成用户体验过差的问题。

4.用户行为

用户参与度,用户访问页面时间,频率等。

行为路径,即用户完成某一个任务时经过了哪几个页面,做了哪些操作。

自定义事件,根据产品需求,对某一个特定的用户事件进行数据统计分析用户行为。

基于业务的漏斗分析,常见于电商用户行为分析,从用户登录到最终支付的用户流失情况,判断在哪个环节出现问题以及时优化。

三、数据获取

明确目标,定义好需要分析的数据指标后,那么下一步就是依据数据指标提取数据了。产品在上线后会不断积累、沉淀用户的注册、登录、使用等各个维度的数据。在数据获取阶段要做的就是采集需要的数据,并且对数据进行处理已达到可以用于数据分析的效果。

3.1数据采集

数据的来源主要有两种,一种是通过数据埋点,然后提取相应的数据字段。另一种是通过用户的使用日志文件分析用户数据及用户行为。

埋点业内有两种方式,一种是在产品设计阶段通过提交相应需求由研发团队设计底层数据模型时将需要在产品上线后特别注意的数据字段进行标识。另外一种则是通过第三方统计平台,如GrowingIO等,这些第三方统计平台利用前端技术可以统计到大部分用户行为数据,减少产品自身开发和改造,但是对于个性化的数据分析需求还需要通过产品底层的设计来满足。

用户使用日志即用户登录产品后每一次操作都会被记录下来,保证用户的使用行为可以查询,同时针对用户的一些误操作可以通过日志文件进行恢复。

3.2数据处理

为什么要做数据处理?有一点数据挖掘经验的人可能会了解,实际生产环境下产生的数据并非是理想状态下的,可能某一条记录某一个字段因为系统或人为原因造成了缺失,对于数据的不完整性也可能导致数据分析结果的不准确性,所以在数据分析前要对采集到的数据进行数据清洗和数据预处理。(如果对数据处理感兴趣可以参见专业数据挖掘书籍中关于数据处理的章节,如《数据挖掘导论》)

1.数据清洗

数据清洗指对采集的不规范数据进行清洗,如对数据存在缺失的进行填充,对于数值性数据比较常用的方法就是选取数据前后若干天的数据取平均作为缺失数据值进行填充。其他可能出现数据不规范的现象还有很多,如对于用户年龄字段数据采集时发现个别用户年龄字段数值大于了100,就需要通过数据稽查去发现问题所在。

2.数据预处理

原始数据与数据分析需要的数据维度可能会有所不同,比如采集到的原始数据是按照天进行汇总的,但是数据分析需要的是按月汇总的数据。那么在进行数据分析前,就需要将每个用户的日数据进行汇总,得到每个用户的月数据后才能进行分析。

四、数据分析

4.1数据分析框

专业的数据挖掘算法有很多,如关联分析、聚类分析、神经网络等等。在这里不过多介绍,只是结合产品、运营日常工作场景介绍几种常见的分析框架。

1.用户画像洞察

用户画像洞察是通过对用户数据的聚合,将数据转换成形象化的虚拟用户模型。通过用户画像展现具有某一类特征的用户群体。将用户群依据用户画像进行分类,为精细化用户运营提供数据支撑。

同时通过对用户画像的构建也有利用产品经理、运营把握用户。在进行功能迭代和活动运营时,可以有针对性的制定策略,提升效率。

2.用户行为分析

用户行为分析中最常用的就是漏斗分析模型,即用户在完成某一项特定任务时要经过多个步骤,在每一个步骤中都会产生用户流失,为了保证更多用户顺利完成任务,通过对漏斗模型的分析发现问题所在,优化关键步骤的用户体验,达成最终目标。

上图中拿电商类产品和内容类产品作为举例,一个用户在成功购买某件商品或成功消费完某一内容前要经过很多步,这其中每一个环节都会造成用户的流失。所以在进行漏斗分析时,可以观察用户在哪一个环节流失最为严重,然后针对相应环节进行分析,找到对应的解决方案,提升用户的转化率。

3.用户行为分析

对用产品新上线的功能模块,可以通过用户行为分析来验证新功能的好坏,使用用户体量有多少,用户在使用时是否在某些环节产生困扰,通过用户行为分析来验证功能效果好坏。

在对用户行为分析时,要根据产品的具体业务流程设计分析方法,结合业务场景才能更多的发现问题。

上述介绍的三种数据分析框架是最基础的,对于非专业领域的数据分析挖掘来说,数据分析方法首先要结合产品的业务场景,根据具体业务指导分析方法和分析流程。如果想达到好的分析效果,还要结合自家产品制定个性化数据分析方案。

4.2数据可视化

数据分析的结果往往都是枯燥的,无法让领导或执行同事清晰理解,所以需要对数据分析结果进行可视化处理,让领导明白数据分析的结果是什么,让同事明白根据分析结果如何进行下一步工作。

1.可视化方式

根据数据类型以及展现形式的不同,可视化方式有展现时间关系的时序图;展现占比的饼状图;展现数据分布的柱状图等等。可参考《谁说菜鸟不会数据分析》、《深入浅出数据分析》等入门书籍。

2.可视化工具

简单的数据分析工作用Excel就可以完成,复杂一些的有SPSS、Tableau等专业化数据分析工具。这里还推荐一个Echarts,这本是一个前端图表框架,但是简单易用,通过对应的图表模板,只需要将数据导入框架模板即可生成可视化图表。

4.3数据报告

数据报告是对数据分析任务的总结,向上对领导汇报,向下与同事共同制定策略完成下一阶段任务。

所以根据看报告的用户不同,需要有针对性的调整其中部分内容。数据分析报告大致需要以下几个内容:

  • 分析背景
  • 目标数据源选取
  • 数据分析方法
  • 框架数据可视化
  • 数据分析结果&建议

本着具体问题具体分析的原则,根据数据分析报告的目的进行个性化完善。

五、形成策略

策略的制定取决于数据化运营的目的和数据分析的结果,通过目的和结果形成针对性的策略。

这方面每一次数据分析形成的策略都不一样,所以在这里不再进一步展开,根据具体问题以及具体的业务场景制定有效策略即可。

六、验证优化

如同精益创业中MVP理论一样,数据分析的结果生成的策略并非一定有效, 并不一定可以快速达到预期效果。

在策略执行的同时,通过数据的积累沉淀,监控相应数据指标情况,对策略进行优化,已达到最终的目的。

以上为数据化运营知识体系的六个组成部分,通过上述六个方面构成了数据化运营业务流程闭环。需要注意的是,任何数据化运营任务都要以业务为导向,依据具体业务场景选择数据分析思路、方法。切忌,不要为了数据分析而数据分析,数据分析一定要源于业务。 


本文作者:记小忆

来源:51CTO

这篇关于六步搭建数据化运营知识体系的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/206232

相关文章

使用docker搭建嵌入式Linux开发环境

《使用docker搭建嵌入式Linux开发环境》本文主要介绍了使用docker搭建嵌入式Linux开发环境,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面... 目录1、前言2、安装docker3、编写容器管理脚本4、创建容器1、前言在日常开发全志、rk等不同

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

GSON框架下将百度天气JSON数据转JavaBean

《GSON框架下将百度天气JSON数据转JavaBean》这篇文章主要为大家详细介绍了如何在GSON框架下实现将百度天气JSON数据转JavaBean,文中的示例代码讲解详细,感兴趣的小伙伴可以了解下... 目录前言一、百度天气jsON1、请求参数2、返回参数3、属性映射二、GSON属性映射实战1、类对象映

C# LiteDB处理时间序列数据的高性能解决方案

《C#LiteDB处理时间序列数据的高性能解决方案》LiteDB作为.NET生态下的轻量级嵌入式NoSQL数据库,一直是时间序列处理的优选方案,本文将为大家大家简单介绍一下LiteDB处理时间序列数... 目录为什么选择LiteDB处理时间序列数据第一章:LiteDB时间序列数据模型设计1.1 核心设计原则

Linux搭建ftp服务器的步骤

《Linux搭建ftp服务器的步骤》本文给大家分享Linux搭建ftp服务器的步骤,本文通过图文并茂的形式给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录ftp搭建1:下载vsftpd工具2:下载客户端工具3:进入配置文件目录vsftpd.conf配置文件4:

Java+AI驱动实现PDF文件数据提取与解析

《Java+AI驱动实现PDF文件数据提取与解析》本文将和大家分享一套基于AI的体检报告智能评估方案,详细介绍从PDF上传、内容提取到AI分析、数据存储的全流程自动化实现方法,感兴趣的可以了解下... 目录一、核心流程:从上传到评估的完整链路二、第一步:解析 PDF,提取体检报告内容1. 引入依赖2. 封装

MySQL中查询和展示LONGBLOB类型数据的技巧总结

《MySQL中查询和展示LONGBLOB类型数据的技巧总结》在MySQL中LONGBLOB是一种二进制大对象(BLOB)数据类型,用于存储大量的二进制数据,:本文主要介绍MySQL中查询和展示LO... 目录前言1. 查询 LONGBLOB 数据的大小2. 查询并展示 LONGBLOB 数据2.1 转换为十

使用SpringBoot+InfluxDB实现高效数据存储与查询

《使用SpringBoot+InfluxDB实现高效数据存储与查询》InfluxDB是一个开源的时间序列数据库,特别适合处理带有时间戳的监控数据、指标数据等,下面详细介绍如何在SpringBoot项目... 目录1、项目介绍2、 InfluxDB 介绍3、Spring Boot 配置 InfluxDB4、I

Unity新手入门学习殿堂级知识详细讲解(图文)

《Unity新手入门学习殿堂级知识详细讲解(图文)》Unity是一款跨平台游戏引擎,支持2D/3D及VR/AR开发,核心功能模块包括图形、音频、物理等,通过可视化编辑器与脚本扩展实现开发,项目结构含A... 目录入门概述什么是 UnityUnity引擎基础认知编辑器核心操作Unity 编辑器项目模式分类工程

Java整合Protocol Buffers实现高效数据序列化实践

《Java整合ProtocolBuffers实现高效数据序列化实践》ProtocolBuffers是Google开发的一种语言中立、平台中立、可扩展的结构化数据序列化机制,类似于XML但更小、更快... 目录一、Protocol Buffers简介1.1 什么是Protocol Buffers1.2 Pro