当前位置: 首页 > news >正文

临沂网站建设有哪些在什么网站上做精帖

临沂网站建设有哪些,在什么网站上做精帖,摄影网站建设,网络公司怎么优化网站汽车之家基于Paimon的实践 摘要#xff1a;本文分享自汽车之家的王刚、范文、李乾⽼师。介绍了汽车之家基于 Paimon 的一些实践#xff0c;和一些背景。内容主要为以下四部分#xff1a; 一、背景 二、业务实践 三、paimon 优化实践 四、未来规划 一、背景 在使用Paimon之前…汽车之家基于Paimon的实践 摘要本文分享自汽车之家的王刚、范文、李乾⽼师。介绍了汽车之家基于 Paimon 的一些实践和一些背景。内容主要为以下四部分 一、背景 二、业务实践 三、paimon 优化实践 四、未来规划 一、背景 在使用Paimon之前之家的实时/离线数仓分别使用不同的技术方案 离线数仓的方案是使用Hive将数据加工成天/小时级别的表 这个方案非常成熟几乎所有数据仓库团队成员都能熟练掌握。对于业务方而言其开发和维护成本较低。但是这种方案生成的表通常会有较长时间的数据延迟如天或小时数据新鲜度相对较低。此外在夜间可能还会出现大量的ETL任务竞争资源导致资源紧张。 实时数仓采用的方案是基于Flink、Kafka关系型数据库和Redis等技术栈并结合StarRocks做实时OLAP 由于数据都是实时处理因此可以保证数据的新鲜度一般情况下延迟能做到秒级。然而当SQL比较复杂时尤其是存在多个Group by, Join算子时会导致Flink处理的回撤流翻倍Flink状态体积非常庞大使用大量的计算存储资源。这种场景在任务的开发和维护方面可能会带来较大的挑战。任务的开发周期也因此会较离线的方案长很多。 在20年底我们开始调研Iceberg通过流式湖仓的方式在存储上作为实时和离线数据的统一存储方案。Iceberg架构非常的简洁健壮、集成Flink可以做到分钟级别的数据延迟、并且通过自身维护元数据减少了Hive MetaStore的压力、可以灵活且高效地处理表结构变更、支持排序索引等功能可以有效地提升查询效率等优点非常多。但是经过一段时间的使用后我们发现Iceberg更适合批处理场景在流场景的一些必要功能的缺失比如增量且有序读取实时任务在线schema变更缺少部分更新导致无法满足我们流式湖仓的需求。 我们在23年开始调研Apache PaimonPaimon提供了类似于Iceberg的简洁健壮的架构并且功能非常强大。与Flink也集成得非常完善提供了增量且有序的数据读取、部分更新等能力结合Flink CDC可以实现整库同步在线Schema变更等满足了我们对于流式湖仓的需求。而且Paimon作为一个相对较新的数据湖没有太多的历史负担这对于其他数据湖来说这一点有着非常巨大的优势。 我们最终使用了Paimon作为存储流批一体的解决方案。实时和离线数据共享同一份存储这样做降低了开发和维护的难度提高了数据仓库的整体数据新鲜度。此外我们还通过使用StarRocks建立物化视图和使用Sort Compaction功能等技术手段来进一步提升查询效率节省计算资源。 二 、业务实践 在下文中将给大家分享之家基于Paimon的业务实践 新用户转化分析 1使用Paimon主键表的部分更新功能 2使用StarRocks建物化视图加速Paimon表的查询 流量日志入湖 1使用Paimon的Append表 2使用Paimon的Sort Compaction功能加速Paimon表的查询提升查询效率减少资源消耗 资源入湖 使用Paimon主键表的Upsert功能 2.1 新用户转化分析 新用户转化分析是一种对新用户在产品中行为变化的分析方法通过观察新用户在其首次进入APP的行为分析他们在后续阶段的转化过程。这种分析对于理解产品的用户采用情况、改进用户体验、提高用户留存率等方面具有重要的意义。为了实时获取新用户进入之家APP后在同步落地页的转化情况需将用户的行为路径和订单数据关联通过综合分析新用户在产品或服务中的行为可以更加全面地改进产品体验并制定更具针对性的策略从而提高用户转化率。在这个场景中我们使用到了Paimon的部分更新功能按照用户ID部分更新对应主题的数据。 2.1.1 实现 1构建新用户宽表 CREATE TABLE if not exists new_user_transform (user_id String,new_user_type String,channel_name String,land_page String, ....primary key (deviceid,dt) not enforced) partitioned by (dt)WITH (bucket-key deviceid,bucket xx,full-compaction.delta-commits5,merge-engine partial-update,partial-update.ignore-deletetrue,)2处理数据写入到Paimon 1通过Flink的interval window 计算新用户在5分钟内进入过的承接页 CREATE TEMPORARY VIEW new_user_view AS select l.deviceid, r.page_id as land_page from (select time_ltz, deviceid, channelid, proctime from new_user) l left join (select page_id, deviceid, time_ltz from user_page_view_log) r on upper(l.deviceid) upper(r.deviceid) and r.time_ltz l.time_ltz and r.time_ltz l.time_ltz INTERVAL 5 MINUTE2通过Paimon的部分拼接功能将数据拼接到Paimon表 宽表字段由多个数据源提供直接使用 Union All 的方式进行拼接 数据在存储层进行 Join 拼接与计算引擎无关不需要保留join算子的状态节省资源。 insert into new_user_transform select user_id ,user_info,CAST(NULL AS STRING),CAST(NULL AS STRING) from new_user_view union all select user_id,case(NULL AS STRING),order_info,case(NULL AS STRING) from order union all ....3在StarRocks构建Paimon物化视图 此外为了提升拼接后的宽表的查询效率我们开发了基于Paimon外表的StarRocks的物化视图功能。目前基于Paimon外表的物化视图功能已经贡献给了StarRocks社区会在StarRocks 3.2版本发布 CREATE MATERIALIZED VIEW new_user_trans_mv COMMENT laxin_toufang_by_loudou_mv DISTRIBUTED BY RANDOM PARTITION BY (pdt) REFRESH DEFERRED MANUAL PROPERTIES( replication_num 5, storage_mediumHDD) as select str2date(dt,%Y-%m-%d) pdt, hour, COALESCE(new_user_type,all), COALESCE(channel_type,all),COALESCE(new_channel_name,all), COALESCE(land_page,all),count(distinct deviceid) as uv, count(distinct case when entry_show 1 then deviceid else null end) as entry_show,count(distinct case when entry_click 1 then deviceid else null end) as entry_click,count(distinct case when page_show 1 then deviceid else null end) as page_show,count(distinct case when page_click 1 then deviceid else null end) as page_click,count(distinct case when is_login 1 then deviceid else null end) as is_loginFROM paimon_catalog_fdm.rt_feature_db.laxin_toufang_by_loudou where new_user_type is not null and channel_type is not null and new_channel_name is not null and land_page is not null group by grouping sets((dt,hour), (dt,hour,new_user_type), (dt,hour,channel_type), (dt,hour,new_channel_name), (dt,hour,land_page), (dt,hour, new_user_type, channel_type, new_channel_name, land_page), (dt,hour,new_user_type, channel_type, new_channel_name), (dt,hour, new_user_type, channel_type, land_page), (dt,hour,channel_type, new_channel_name,land_page), (dt,hour,new_user_type, channel_type), (dt,hour, new_user_type, new_channel_name), (dt,hour, new_user_type, land_page), (dt,hour, channel_type, new_channel_name), (dt,hour,channel_type, land_page), (dt,hour,new_channel_name, land_page));4手动刷新物化视图 除了自动按增量分区刷新物化视图用户还可以选择手动刷新物化视图。 REFRESH MATERIALIZED VIEW new_user_trans_mv partition start (2023-11-10) end (2023-11-11) WITH SYNC MODE;5最终效果 1天的宽表在10秒左右刷新完成 查询每天的物化视图效率在亚秒级 3收益 时效性: 宽表时效性从天级别提升到分钟级别 开发效率开发效率提升5倍以上 使用资源因为Join的数据不再需要维护在状态中Flink写入任务使用的资源节省了60% 2.2 流量日志入湖 将之家的流量日志基表打宽入湖可以提升数仓日志清洗的时效性SLA。在提升数据时效性的同时为提升特定事件的分析查询效率通过Paimon的排序合并Sort Compaction功能可以根据统计信息快速定位event_id所在的数据数据文件排序后不用读取分区所有的数据文件可减少计算引擎的使用资源 极大提升查询效率。这里使用了Paimon的append only表近实时追加流量日志。 2.2.1 Sort Compaction 这里因为event_id存在热点问题为了保证排序分桶均匀使用event_iddevice_id两个字段排序。因为使用的最左匹配策略所以不会影响基于event_id字段的查询效率 ./bin/flink run-application -t yarn-application -D execution.runtime-modebatch paimon-flink-action.jar \ compact \ --warehouse viewfs://xxxx\ --database pmon_dw \ --table pmon_user_log \ --partition dt2023-11-10,hour23 \ --order-strategy order \ --order-by event_id,device_id \ --table-conf read.batch-size2048 在Paimon的元数据中会维护event_id的统计信息如下图所示在按照event_id排序后会根据统计信息判断出 evnet_id sight_b’的数据只存在File1、File2中所以只查询数据文件File1File2即可。在查询Paimon表的plan阶段可以根据统计信息很高效的命中文件Hive不用查询分区内的所有文件从而节省查询使用的资源、提高查询效率。 **(1) 收益 ** 1数仓流量日志清洗SLA提升1小时 2天分区的数据使用Hive通过查询不同数量级的event_id资源节省再显著降低的同时查询效率也得到显著提升。 排序前排序后(根据event_id的量级范围测试)mapper数3304524-1367查询效率分钟203到6分钟 2.3 资源入湖 2.3.1 背景 资源指在推荐和搜索系统中用于展现给用户浏览观看的文章视频帖子车家号等不同种类的内容。这些内容分别来自不同的生产方不同的数据源。在传统的数仓处理流程汇中我们采用常规的离线同步业务数据的方式形成ODS接入层数据。而后针对接入层的各类来源信息通过hivespark等离线计算引擎完成数据的归总最终形成资源数据模型。这种传统的方式受限于整套组件的机制形成常规的天级数据更新模式。这种方式可以获取昨日数据单也不可避免的无法满足获取当日数据的需求。 为了解决这类问题我们通过使用Flink的实时处理数据结合paimon的数据湖近实时存储。使用到Paimon表upsert的功能近实时以分钟级别的方式更新实时数据。以数湖的方式既可以满足离线昨日数据也可以满足当日新增数据获取的目的。 2.3.2 业务规模 资源数据来源8套不同业务线的内容生产方每套业务线数据平均包含200余个属性字段合计超过1500个不同属性的逻辑处理。 2.3.3 实现逻辑 1通过参考数仓宽表层的处理模式将大量数据进行合并形成50个核心属性其余属性通过可扩展json的形式进行存储完成整体数据落地。保证业务方可以根据需求获取到每一个参数。 2主键由业务表主键与业务类型拼接生成保证不同业务之间不会互相倍覆盖。 CREATE TABLE if not exists resource_extend_info (pk stringbiz_id string,biz_typle string,...extinfo stringprimary key (pk) not enforced) WITH (bucket xx,bucket-key pk,full-compaction.delta-commits5,target-file-size256 mb,)将不同类型的资源数据写入到Paimon业务库 insert into resource_extend_info select pk ...extinfo from article union all select pk ..., extinfo from post union all ..... 2.3.4 收益 1数据新鲜度从天级提升到分钟级别 通过数据实时接入和宽表层的实时入湖数据使用方从原有的天级离线模式可以提升到分钟级数据新鲜度这是之前数仓场景无法比拟的。湖仓模式打破了原有离线的工作模式让下游算法在模型计算的时候可以取到最新的样本提升模型的时效。 2下游业务方平滑过渡无需业务大量开发调整 基于paimon的数据湖可以直接让下游开发者无需脱离现有的hive离线数仓环境直接使用hive环境读取paimon数据表就可以获取到最新的当日的数据。这让下游算法数据分析人员可以0成本的过渡到数湖无需学习成本。 三、 Paimon 优化实践 3.1 支持代理用户 在之家实时计算平台目前是使用同一个Haoop用户Flink去提交Flink任务Checkpoint也通过一些规则被同一用户管理。为了能让平台的Flink用户将数据写到其他团队的数据集市我们在Paimon的Catalog添加了代理用户的配置。 CREATE CATALOG my_catalog WITH (type paimon,warehousexxx,metastore hive,uri xxx,proxyUserxxx )3.1.1 实现 1HDFS: 直接通过ugi代理即可 2Hive客户端 可以参考Spark的org.apache.spark.deploy.security.HiveDelegationTokenProvider实现动态代理Hive的客户端。 3.2 优化写入任务内存占用 3.2.1 Writer算子 1关闭较大列的数据字典 2调低orc文件的读/写 batch size 3在checkpoint阶段如果文件数量到达阈值先等待合并任务完成避免大量小文件堆积到L0层 3.2.2 Commiter算子 1Manifest添加Full Compaction机制 2截断Manifest统计信息 3单独设置committer 算子内存 3.2.3 JobManager 修复由于writer状态未及时更新导致Jobmanager中的list state膨胀导致mom 3.2.4 最终收益 1目前Paimon在之家的部分更新场景最大的主键表每天增量数据10个TB单字段大小2-4MB的主键表 2线上写入Paimon的Flink任务稳定性显著提升 3在使用了社区在内存方面的优化同时我们提出的在内存方面的优化已经全部被社区采纳在Paimon 0.5以上版本开箱即用目前0.5以上的版本已经是非常稳定的版本 四 、未来规划 1. 之家实时计算平台集成 Paimon Web 项目 目前在之家我们通过实时计算平台实现了Paimon表的写入集成工作。接下来我们计划将这一部分功能提取出来通过将社区的Paimon Web项目集成到之家实时计算平台来管理 Paimon 表和写入任务。 2. 支持StarRocks基于Paimon外表的增量数据构建物化视图 目前是基于变更分区 我们计划实现基于Paimon的增量数据刷新物化视图相比于目前基于Paimon的增量分区的方案可以缩短物化视图的刷新时间提升刷新效率。 3. 使用Paimon 定期生成标签功能替换离线拉链表的加工流程 在之家每天夜里会有上万个拉链表的加工任务占用两个小时的加工时间。Paimon定期生成标签功能相较于加工拉链表会更加轻量我们计划使用Paimon定期生成标签功能去缩短夜里加工任务的耗时提升夜里加工任务的时效性SLA。 作者简介 1. 王刚 ■ 汽车之家高级大数据开发工程师 ■ 主要负责之家实时计算Kafka数据湖向量检索平台及引擎的开发维护工作。 2. 李乾 ■ 汽车之家高级大数据开发工程师 ■ 主要从事数据仓库领域的开发工作。目前负责之家实时数仓相关数据建设工作。 3. 范文 ■ 汽车之家高级大数据开发工程师 ■ 主要负责数仓建设业务数据开发数仓数据治理数据湖开发资源内容特征等工作。
http://www.tj-hxxt.cn/news/131295.html

相关文章:

  • 网站分成比例系统怎么做中国黄页网官网
  • 提供网站建设案例宁波网站建设开发
  • 百度不收录网站首页男女做的那个视频网站
  • 网站开发app开发如何做网站推广方式
  • 建设企业网站的好处上传wordpress到空间
  • 网站设计怎么做链接沈阳康平志诚建设集团网站
  • 深圳市研发网站建设哪家好nas怎么做自己的网站
  • 安徽阜阳网站建设公司小企业做网站
  • 有哪些做数据分析的网站潍坊哪里能找到做网站的
  • 华为官方网站手机商城首页wordpress返回顶部插件
  • 江西哪里可以做企业网站番禺做网站设计
  • 宁波网站建设价格费用专门做金融的招聘网站
  • 在家做兼职哪个网站免费咨询话术
  • php做的网站如何发布wordpress怎么排版
  • 专业网站制作地址网页怎么建设
  • 现在什么网站做推广比较好企业门户网站建设管理制度
  • 哪些网站会盗取中国电子商务官网
  • 建设flash网站做网站推广员图片处理问题
  • 本机做网站校内二级网站建设整改方案
  • 和一个网站做接口邯郸网站设计多少钱
  • 网站建设收费标准不一推广标题怎么写
  • 网站建设的商品编码活动手机网站开发
  • 微网站公司哪个是网络营销导向网站建设的基础
  • 昆山做企业网站中国建筑网官网电工证证件查询
  • 建站宝盒建网站免费外贸建站平台
  • 查看网站有多少空间创建个人网站制作流程步骤
  • 品牌型网站案例网站建设怎么找到客户
  • WordPress限时账号自己的网站做优化怎么设置缓存
  • 东莞市找工作上什么网优化模型有哪些
  • 东莞网站建设乐云seo在线制作做缓网站