业务
在实际业务使用中,需要经常实时做一些数据分析,包括实时PV和UV展示,实时销售数据,实时店铺UV以及实时推荐系统等,基于此类需求,Confluent+实时计算Flink版 是一个高效的方案。
Confluent 是基于 Apache Kafka 提供的企业级全托管流数据服务,由 Apache Kafka 的原始创建者构建,通过企业级功能扩展了 Kafka 的优势,同时消除了 Kafka 管理或监控的负担。
实时计算Flink版是阿里云基于 Apache Flink 构建的企业级实时大数据计算商业产品。实时计算 Flink 由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,提供全系列产品矩阵,完全兼容开源 Flink API,并充分基于强大的阿里云平台提供云原生的 Flink 商业增值能力。
一、准备工作
创建 Confluent 集群和实时计算Flink版集群
1、登录 Confluent管理控制台[1],创建Confluent集群,创建步骤参考 Confluent集群开通[2]
2、登录实时计算Flink版管理控制台[3],创建 vvp 集群。请注意,创建 vvp 集群选择的 vpc 跟 confluent 集群的 region 和 vpc 使用同一个,这样可以在 vvp 内部访问 confluent 的内部域名。

二、最佳实践 -实时统计玩家充值金额
Confluent+实时计算Flink+Hologres
2.1 新建Confluent消息队列
1、在 confluent 集群列表页,登录 control center

2、在左侧选中 Topics,点击Add a topic
按钮,创建一个名为confluent-vvp-test
的topic,将 partition 设置为3


2.2 配置结果表 Hologres
1、进入 Hologres控制台[4],点击 Hologres 实例,在 DB 管理中新增数据库 `mydb`

2、登录 Hologres 数据库,新建 SQL

3、Hologres 中创建结果表 SQL 语句
--用户累计消费结果表CREATE TABLE consume (appkey VARCHAR,serverid VARCHAR,servertime VARCHAR,roleid VARCHAR,amount FLOAT,dt VARCHAR,primary key(appkey,dt));
2.3 创建实时计算vvp作业
1、首先登录 vvp 控制台,选择集群所在 region,点击控制台,进入开发界面

2、点击作业开发 Tab,点击新建文件,文件名称:confluent-vvp-hologres,文件类型选择:流作业 SQL

3、在输入框写入以下代码:
create TEMPORARY table kafka_game_consume_source(appkey STRING,servertime STRING,consumenum DOUBLE,roleid STRING,serverid STRING) with ('connector' = 'kafka','topic' = 'game_consume_log','properties.bootstrap.servers' = 'kafka.confluent.svc.cluster.local.xxx:9071[xxx可以找开发同学查看]','properties.group.id' = 'gamegroup','format' = 'json','properties.ssl.truststore.location' = '/flink/usrlib/truststore.jks','properties.ssl.truststore.password' = '[your truststore password]','properties.security.protocol'='SASL_SSL','properties.sasl.mechanism'='PLAIN','properties.sasl.jaas.config'='org.apache.flink.kafka.shaded.org.apache.kafka.common.security.plain.PlainLoginModule required username="xxx[集群的用户]" password="xxx[相应的密码]";');-- 创建累计消费hologres sink表CREATE TEMPORARY TABLE consume(appkey STRING,serverid STRING,servertime STRING,roleid STRING,amount DOUBLE,dt STRING,PRIMARY KEY (appkey,dt) NOT ENFORCED)WITH ('connector' = 'hologres','dbname' = 'mydb','endpoint' = 'hgprecn-cn-tl32gkaet006-cn-beijing-vpc.hologres.aliyuncs.com:80','password' = '[your appkey secret]','tablename' = 'consume','username' = '[your app key]','mutateType' = 'insertorreplace');--{"appkey":"appkey1","servertime":"2020-09-30 14:10:36","consumenum":33.8,"roleid":"roleid1","serverid":"1"}--{"appkey":"appkey2","servertime":"2020-09-30 14:11:36","consumenum":30.8,"roleid":"roleid2","serverid":"2"}--{"appkey":"appkey1","servertime":"2020-09-30 14:13:36","consumenum":31.8,"roleid":"roleid1","serverid":"1"}--{"appkey":"appkey2","servertime":"2020-09-30 14:20:36","consumenum":33.8,"roleid":"roleid2","serverid":"2"}--{"appkey":"appkey1","servertime":"2020-09-30 14:30:36","consumenum":73.8,"roleid":"roleid1","serverid":"1"}-- 计算每个用户累积消费金额insert into consumeSELECTappkey,LAST_VALUE(serverid) as serverid,LAST_VALUE(servertime) as servertime,LAST_VALUE(roleid) as roleid,sum(consumenum) as amount,substring(servertime,1,10) as dtFROM kafka_game_consume_sourceGROUP BY appkey,substring(servertime,1,10)having sum(consumenum) > 0;
4、在高级配置里,增加依赖文件 truststore.jks
(访问内部域名需添加,公网域名可以不用),
访问依赖文件的固定路径前缀都是/flink/usrlib/
(这里是/flink/usrlib/truststore.jks)

5、点击上线按钮,完成上线

6、在运维作用列表里找到刚上线的作用,点击启动按钮,等待状态更新为 running,运行成功。

7、在 control center 的【Topics->Messages】页面,逐条发送测试消息,格式为:
{"appkey":"appkey1","servertime":"2020-09-30 14:10:36","consumenum":33.8,"roleid":"roleid1","serverid":"1"}{"appkey":"appkey2","servertime":"2020-09-30 14:11:36","consumenum":30.8,"roleid":"roleid2","serverid":"2"}{"appkey":"appkey1","servertime":"2020-09-30 14:13:36","consumenum":31.8,"roleid":"roleid1","serverid":"1"}{"appkey":"appkey2","servertime":"2020-09-30 14:20:36","consumenum":33.8,"roleid":"roleid2","serverid":"2"}{"appkey":"appkey1","servertime":"2020-09-30 14:30:36","consumenum":73.8,"roleid":"roleid1","serverid":"1"}
2.4 查看用户充值金额实时统计效果


三、最佳实践-电商实时PV和UV统计
Confluent+实时计算Flink+RDS
3.1 新建 Confluent 消息队列
1、在 confluent 集群列表页,登录 control center

2、在左侧选中 Topics,点击Add a topic
按钮,创建一个名为pv-uv
的 topic,将 partition 设置为3


3.2 创建云数据库RDS 结果表
1、登录 RDS 管理控制台[5]页面,购买 RDS。确保 RDS 与 Flink 全托管集群在相同 region,相同 VPC 下

2、添加虚拟交换机网段(vswitch IP段)进入 RDS 白名单,详情参考:设置白名单文档[6]


3、【vswitch IP段】可在 flink 的工作空间详情中查询

4、在【账号管理】页面创建账号【高权限账号】


5、数据库实例下【数据库管理】新建数据库【conflufent_vvp】

6、使用系统自带的 DMS 服务登陆 RDS,登录名和密码输入上面创建的高权限账户


7、双击【confluent_vvp】数据库,打开 SQLConsole,将以下建表语句复制粘贴到 SQLConsole 中,创建结果表
CREATE TABLE result_cps_total_summary_pvuv_min(summary_date date NOT NULL COMMENT '统计日期',summary_min varchar(255) COMMENT '统计分钟',pv bigint COMMENT 'pv',uv bigint COMMENT 'uv',currenttime timestamp COMMENT '当前时间',primary key(summary_date,summary_min))

3.3 创建实时计算VVP作业
1、【VVP控制台】新建文件

2、在 SQL 区域输入以下代码:
--数据的订单源表CREATE TABLE source_ods_fact_log_track_action (account_id VARCHAR,--用户IDclient_ip VARCHAR,--客户端IPclient_info VARCHAR,--设备机型信息platform VARCHAR,--系统版本信息imei VARCHAR,--设备唯一标识`version` VARCHAR,--版本号`action` VARCHAR,--页面跳转描述gpm VARCHAR,--埋点链路c_time VARCHAR,--请求时间target_type VARCHAR,--目标类型target_id VARCHAR,--目标IDudata VARCHAR,--扩展信息,JSON格式session_id VARCHAR,--会话IDproduct_id_chain VARCHAR,--商品ID串cart_product_id_chain VARCHAR,--加购商品IDtag VARCHAR,--特殊标记`position` VARCHAR,--位置信息network VARCHAR,--网络使用情况p_dt VARCHAR,--时间分区天p_platform VARCHAR --系统版本信息) WITH ('connector' = 'kafka','topic' = 'game_consume_log','properties.bootstrap.servers' = 'kafka.confluent.svc.cluster.local.c79f69095bc5d4d98b01136fe43e31b93:9071','properties.group.id' = 'gamegroup','format' = 'json','properties.ssl.truststore.location' = '/flink/usrlib/truststore.jks','properties.ssl.truststore.password' = '【your password】','properties.security.protocol'='SASL_SSL','properties.sasl.mechanism'='PLAIN','properties.sasl.jaas.config'='org.apache.flink.kafka.shaded.org.apache.kafka.common.security.plain.PlainLoginModule required username="【your user name】" password="【your password】";');--{"account_id":"id1","client_ip":"172.11.1.1","client_info":"mi10","p_dt":"2021-12-01","c_time":"2021-12-01 19:10:00"}CREATE TABLE result_cps_total_summary_pvuv_min (summary_date date,--统计日期summary_min varchar,--统计分钟pv bigint,--点击量uv bigint,--一天内同个访客多次访问仅计算一个UVcurrenttime timestamp,--当前时间primary key (summary_date, summary_min)) WITH (type = 'rds',url = 'url = 'jdbc:mysql://rm-【your rds clusterId】.mysql.rds.aliyuncs.com:3306/confluent_vvp',',tableName = 'result_cps_total_summary_pvuv_min',userName = 'flink_confluent_vip',password = '【your rds password】');CREATE VIEW result_cps_total_summary_pvuv_min_01 ASselectcast (p_dt as date) as summary_date --时间分区, count (client_ip) as pv --客户端的IP, count (distinct client_ip) as uv --客户端去重, cast (max (c_time) as TIMESTAMP) as c_time --请求的时间fromsource_ods_fact_log_track_actiongroupby p_dt;INSERTinto result_cps_total_summary_pvuv_minselecta.summary_date,--时间分区cast (DATE_FORMAT (c_time, 'HH:mm') as varchar) as summary_min,--取出小时分钟级别的时间a.pv,a.uv,CURRENT_TIMESTAMP as currenttime --当前时间fromresult_cps_total_summary_pvuv_min_01 AS a;
3、点击【上线】之后,在作业运维页面点击启动按钮,直到状态更新为 RUNNING 状态。

4、在 control center 的【Topics->Messages】页面,逐条发送测试消息,格式为:
{"account_id":"id1","client_ip":"72.11.1.111","client_info":"mi10","p_dt":"2021-12-01","c_time":"2021-12-01 19:11:00"}{"account_id":"id2","client_ip":"72.11.1.112","client_info":"mi10","p_dt":"2021-12-01","c_time":"2021-12-01 19:12:00"}{"account_id":"id3","client_ip":"72.11.1.113","client_info":"mi10","p_dt":"2021-12-01","c_time":"2021-12-01 19:13:00"}

3.4 查看 PV 和 UV 效果
可以看出 rds 数据表的 pv 和 uv 会随着发送的消息数据,动态的变化,同时还可以通过【数据可视化】来查看相应的图表信息。

pv图表展示:

uv图表展示:

参考链接
[1] Confluent 管理控制台
https://confluent.console.aliyun.com/
[2] Confluent 集群开通
https://www.yuque.com/aliyunbigdata/ndmaw3/qof8ig?
[3] 实时计算Flink版管理控制台
https://realtime-compute.console.aliyun.com/?
[4] Hologres 控制台
https://hologram.console.aliyun.com/cn-shanghai/overview
[5] RDS 管理控制台
https://rdsnext.console.aliyun.com/rdsList/cn-shanghai/basic/
[6] 设置白名单文档
https://help.aliyun.com/document_detail/174469.html
加入钉钉技术交流群


产品技术咨询看这里~




