用户画像番外篇之随笔三则

电子说

1.3w人已加入

描述

一则:开发上的一点记录

文章说是生活随笔,到不如说是对本周开发工作中的一些体会与思考的记录。

这个专栏我想除了对知识上的一些记录,以后也可以加入生活上的收获。好记性不如烂笔头,或许多年后再回看这些文章,回看进步的历程,也是一件很有成就感的事情。

4月份换了工作去做数据开发,重点项目还是做用户画像。开发时间排的很紧,平均每天要开发1~2个标签。从和需求方确认标签口径,找标签对应数据所在的表、字段定义、数据存储结构,到写标签逻辑,上线验证标签正确性.... 时间简直不够,更不要说某些复杂口径的一个标签都要写上百行的逻辑。

这周到现在又开发了6个标签,写了一个调度脚本,正在进行着一次数据逻辑调优。下面挑两个重要点的记录一下:

1、任务调度脚本开发

画像数据目前是写在Spark SQL里面,通过每天定时任务调python脚本,来执行Spark SQL。

但这样的话开发效率比较低,一方面开发人员写完Hive SQL脚本后,还需要在外面包一层spark才打包成可执行脚本,另一个方面对于每一个打包后的python脚本都要写一个crontab调度命令。

所以必须要优化一下流程。优化方式就是:

①开发人员对画像标签只需写Hive SQL脚本,传到服务器对应目录下;

②通过一个python脚本,自动扫描目录下的sql文件,加载并替换掉sql中的日期变量,并将替换日期后的脚本文件包上spark去执行;

③每天crontab命令只需定时调度该python脚本即可,不需要在每新上一个标签的Hive SQL逻辑,就上一条调度命令。

2、数据逻辑调优

开发出的标签很多了,但有的标签逻辑复杂,需要做进一步调优,提高每日跑批作业的执行效率,这里就与日志数据相关的标签为例。

用户近30日活跃时间段:这个口径需要计算用户近30天是在中午、下午、晚上哪个时间段访问次数最多,这显然是一个与日志数据相关的口径。

而记录用户访问行为的日志数据的情况是:

1、做了日期分区,每日全量更新历史数据。而且日志数据量很大,每天都有亿级pv;

2、这就导致了在每天跑批时都需要从近30天的访问日志中抽取数据计算,一次几十亿pv的计算,相当耗费计算资源了。

后来做的调优方式是:

①首次刷数据时刷近30日用户在每个时间段的活跃次数,做倒排序找出用户活跃时间段;

②后续每天跑批任务时,只需计算前一天用户访问各时间段对应的次数(不通过日期分区字段找,对用户访问时间做日期格式处理后通过访问日期来找),并与历史数据做加总,找出其活跃时间段;

③这样计算就免去了计算近30日的日志数据,仅需计算前一天的数据即可。

近期在不断补充学习新知识,spark要搞起来了、shell命令要用熟起来了。都要投入精力搞。

写到这会已经周五早上53分了,过几个小时还要继续投入。这周的一些想法先总结到这里。

我觉得生活也好、工作也好,或许就是在这么一天天的貌似不起眼的积累中,不断进步的。

作为一个多年的米粉,记得那次看红米note3发布会的末尾,被他文案中朴实、真诚的语句吸引了。在这里想用那句台词做结“我所有的向往”。向往着在每一个看似普通的日子中精彩生活、不断进步、奔腾向前。

二则:自动发送邮件脚本

这段时间在对流量部门提供数据方面的支持,把每天自动发送邮件的脚本讲一讲吧,虽然很基础,好像没什么可以说的 ...

在日常运营工作中,数据提取人员面对众多业务方的数据需求,往往应接不暇。他们需要一套自动化的程序去帮助他们完成一些周期性和重复性较强的工作。

为了减少重复性工作,数据提取人员可以使用Python自动化脚本跑定时任务。将写好的HQL语句放入Python脚本中,并在linux服务器上设置crontab定时调度任务,保证每天定时自动从数据仓库提取数据完毕后,将结果集写到excel中并发送邮件到数据需求方的邮箱。Python脚本代码执行如下

#coding: utf-8 search_data = """ 创建临时表查询昨日运营数据""" report_data = ''' select * from 上一步创建的临时表 ''' import psycopg2 import smtplib import os import openpyxl import datetime from impala.dbapi import connect from email.mime.multipart import MIMEMultipart from email.mime.text import MIMEText from email.mime.image import MIMEImage import pyhs2   # HIVE环境 wb = openpyxl.load_workbook('/home/path/username/daily_report_v1.xlsx')  # 打开服务器存储路径下的excel文件 # 连接HIVE环境 impala_conn = pyhs2.connect(host='10.xx.xx.xx', port=xxx, authMechanism="PLAIN", user='username',  password='password',  database='dwd') seo_h5_1 = impala_conn.cursor() h5_result = impala_conn.cursor() seo_h5_1.execute('''SET mapreduce.job.queuename=root.yydata''') seo_h5_1.execute(search_data)  # 执行HQL语句 #  取出来数据 h5_result.execute(report_data) # 取出来数据 h5_result = h5_result.fetchall() #放到sheet里面去 sheet = wb.get_sheet_by_name('daily_report')  #daily_report表 #清除历史数据 for i in range(2,sheet.max_row + 1 ):  for j in range(1,sheet.max_column + 1 ):    sheet.cell(row=i,column=j).value = '' #填充结果数据 for i in range(2,len(h5_result) + 2 ):  for j in range(1,len(h5_result[i-2]) + 1 ):    sheet.cell(row=i,column=j).value = h5_result[i-2][j-1] #关闭HIVE链接 impala_conn.close() wb.save('/home/path/usernamet/daily_report_v1.xlsx')  # 保存excel文件 receiver = 'receiver_email@xxx.com'  # 收件人邮箱地址 date_str = datetime.datetime.strftime(datetime.date.today()-datetime.timedelta(days=1),'%m%d') mail_txt = """ Dear All,    附件是运营日报,请查收。 """ msgRoot = MIMEMultipart('mixed') msgRoot['Subject'] = unicode(u'日报-%s' % date_str)  #添加日期 msgRoot['From'] = 'sender_email@xxx.com' msgRoot['To'] = receiver msgRoot["Accept-Language"]="zh-CN" msgRoot["Accept-Charset"]="ISO-8859-1,utf-8" msg = MIMEText(mail_txt,'plain','utf-8') msgRoot.attach(msg) att = MIMEText(open('/home/path/usernamet/daily_report_v1.xlsx', 'rb').read(), 'base64', 'utf-8') att["Content-Type"] = 'application/octet-stream' att["Content-Disposition"] = 'attachment; filename="日报2017%s.xlsx"' % date_str msgRoot.attach(att) smtp = smtplib.SMTP() smtp.connect('mail.address.com') smtp.login('sender_email@xxx.com', 'sender_password') for k in receiver.split(','):    smtp.sendmail('receiver_email@xxx.com', k, msgRoot.as_string()) smtp.quit()

将上面的python脚本后放入连接到数据仓库的服务器上,在linux下设置crontab调度语句,如“10 16 * * * python /home/path/username/auto_email.py”表示每天下午16点10分执行/home/ path/username/路径下的auto_email.py文件。

执行代码后,程序将自动执行SQL语句连接到数据库提取数据,提数完毕后将数据写入excel文件中,并自动发送邮件到数据需求方邮箱。

这样通过定时调度的脚本即可解决业务方每天对日报数据的需求,将数据提取人员从繁重的机械性劳动中解放出来。

三则:一次对渠道流量异常情况的分析

流量部门目前对APP线上推广需要支付较多的渠道推广费用,但不同渠道带来的用户质量、活跃度、消费能力参差不齐

为了支持流量部门高效推广,减少对垃圾渠道的投放费用。需要对部分投放费用较高,但是营收、活跃度转化较低的渠道需要重点分析

对于渠道流量进行分析的几个关键指标:

根据AARRR模型,从获取用户到用户付费环节依次递进的关系,这里主要从激活、留存、付费三个环节展开

1)激活环节

①激活注册转化率:用户从应用商店下载APP后,不一定都会有注册行为。对于刷下载量、用户为抢红包、赚积分等目的而进行的下载,后续的注册量会很低。对于一些问题渠道来说,他的激活注册转化率(注册量/激活量)会远低于正常渠道;

②激活时间:在某些特殊情况下(如部门为冲KPI而刷下载量),一些问题渠道的激活时间会存在问题。正常来说,用户激活时间也符合人的正常作息时间段,而异常渠道因为存在机器刷量的情况,激活时间段分布也就没有那么规律了,下图就是一个栗子:

橙色和黄色线对应的渠道的激活时间分布存在一些不正常。

2)留存环节

③7日留存率:对正常渠道来说,该渠道的用户下载APP是为了使用,后续的留存会多一些。而对于刷量、刷积分下载、抢红包下载等目的而下载的来说,下载激活后可能接着就卸载掉或再不使用了。从7日留存率这个指标也能看出一些问题渠道;

④访问深度:这里就指PV/UV了,对于渠道来说PV只该渠道一定时间段内的用户总访问量,UV只该时间段内访问用户数,相除代表该渠道每个用户平均访问页面数。正常来说,用户下载了APP即时不注册也是为了使用或查看资讯等目的,因此访问深度不会很低。而问题渠道的用户根本目的不是为了使用产品,因此这些渠道的访问深度就很低了;

3)付费环节

⑤用户获客成本:对正常渠道来说,获取的付费用户量按照AARRR这个模型一层层下来,付费用户数/激活用户数(即付费用户获取比例)会在一个正常逻辑区间内。而对于垃圾渠道来说,激活用户人数可能会很多,但是付费用户人数很少,就会导致付费用户获取比例极低,用户获取成本高的惊人....

现在刷下载的供应商很多,在流量分析时候对刷下载的供应商进行一些调研,了解他们的刷量模式和报价也是对分析很有帮助的。这会刷量不仅能刷激活、还能刷注册、刷留存、刷好评....反正我们分析什么指标,他们都能刷这些指标的值....

但是垃圾渠道就是垃圾渠道,再怎么刷还是能分析出问题和破绽的。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分