当前位置: 首页 > news >正文

wordpress一定要本地建站吗游戏app软件开发公司

wordpress一定要本地建站吗,游戏app软件开发公司,廊坊开发区规划建设局网站,做营销网站作者#xff1a;郭伟杰(阿里云), 范瑞(Shopee) Apache Flink PMC#xff08;项目管理委员#xff09;很高兴地宣布发布 Apache Flink 1.20.0。与往常一样#xff0c;这是一个充实的版本#xff0c;包含了广泛的改进和新功能。总共有 142 人为此版本做出了贡献#xff0c;…作者郭伟杰(阿里云), 范瑞(Shopee) Apache Flink PMC项目管理委员很高兴地宣布发布 Apache Flink 1.20.0。与往常一样这是一个充实的版本包含了广泛的改进和新功能。总共有 142 人为此版本做出了贡献完成了 13 个 FLIPs、解决了 300 多个问题。感谢各位贡献者的支持 站在 Flink 2.0 的前夜 Apache Flink 1.0 发布至今已经 8 年了。因此最近几个月以来社区一直在积极朝着下一个大版本(Flink 2.0)迈进。最新发布的 Flink 1.20 版本将会是 Flink 2.0 (预计 2024 年底发布) 之前的最后一个小版本。 从 Flink 1.19 开始社区决定正式开始废弃过时的公共 API。在 1.20 中我们进一步整理了所有可能需要被替换或弃用的API为 2.0 版本铺平道路 为了提升易用性和可维护性我们重新审视了所有运行时、Table、SQL 以及状态和检查点相关的配置项对它们进行了归类增强和废弃。 废弃过时的 SinkFunction 接口: Flink 1.12 引入了 Unified Sink V2经过了多个版本的开发和迭代后, 它已经变得比较稳定和完善。根据社区在 FLIP-197 中提出的关于 API 演进的要求我们把 Unified Sink V2 提升为了公共接口并且废弃了 SinkFunction 接口。 历经 8 年的发展我们对 Flink 2.0 寄予厚望并且计划在 2.x 中发布几个重量级的新功能。其中一些已在 Flink 1.20 中完成了最小可行产品(MVP)的开发 提升数据加工链路开发体验FLIP-435引入了物化表功能允许用户在动态表中通过统一的 SQL 语句来定义数据的流式/批式转换逻辑从而加速 ETL 管道开发并自动管理任务调度。完整内容和更多细节请参考FLIP-435。 统一的检查点文件合并机制Flink 1.20 中引入了统一的检查点文件合并机制允许将零散的小的检查点文件合并到大文件中减少文件创建和文件删除的次数缓解大量小文件对文件系统元数据管理带来的压力。完整内容和更多细节请参考FLIP-306。 Flink SQL 提升 引入物化表 Flink 1.20 版本 为 Flink SQL 引入了物化表Materialized Table抽象。这是一种新的表类型旨在同时简化流和批处理的数据加工链路同时提供一致的开发体验。 通过定义查询语句和数据新鲜度引擎会自动推导出表结构并创建对应的数据加工链路以保证查询结果满足所要求的数据新鲜度。用户无需理解流处理和批处理之间的概念和差异也不必直接维护 Flink 流处理或批作业所有操作都在物化表上完成这可以显著加快 ETL 数据加工链路的开发速度。 下面是创建一个具备自动刷新能力的物化表的示例数据新鲜度为 3 分钟。 -- 1. 创建物化表并定义新鲜度 CREATE MATERIALIZED TABLE dwd_orders (PRIMARY KEY(ds, id) NOT ENFORCED ) PARTITIONED BY (ds) FRESHNESS INTERVAL 3 MINUTE AS SELECT o.dso.id,o.order_number,o.user_id, ... FROM orders as oLEFT JOIN products FOR SYSTEM_TIME AS OF proctime() AS prodON o.product_id prod.idLEFT JOIN order_pay AS payON o.id pay.order_id and o.ds pay.ds;-- 2. 暂停数据刷新 ALTER MATERIALIZED TABLE dwd_orders SUSPEND;-- 3. 恢复数据刷新 ALTER MATERIALIZED TABLE dwd_orders RESUME -- Set table option via WITH clause WITH(sink.parallesim 10 );-- 手动刷写历史数据 ALTER MATERIALIZED TABLE dwd_orders REFRESH PARTITION(ds20231023);更多信息 物化表文档 FLIP-435: Introduce a New Materialized Table for Simplifying Data Pipelines 完善 Catalog 相关语法 随着 Flink SQL 的广泛采用Flink Catalog 发挥着越来越重要的作用。Flink 内置了 JDBC 和 Hive Catalog 实现而其他开源项目如 Apache Paimon也实现了自己的 Catalog。 在 Flink 1.20 中您可以使用 DQL 语法从现有 Catalog 中获取详细的元数据信息并使用 DDL语法修改指定Catalog 的属性或注释等元数据。 Flink SQL CREATE CATALOG cat WITH (typegeneric_in_memory, default-databasedb); [INFO] Execute statement succeeded.Flink SQL SHOW CREATE CATALOG cat; --------------------------------------------------------------------------------------------- | result | --------------------------------------------------------------------------------------------- | CREATE CATALOG cat WITH (default-database db,type generic_in_memory ) | --------------------------------------------------------------------------------------------- 1 row in setFlink SQL DESCRIBE CATALOG cat; ------------------------------ | info name | info value | ------------------------------ | name | cat | | type | generic_in_memory | | comment | | ------------------------------ 3 rows in setFlink SQL ALTER CATALOG cat SET (default-databasenew-db); [INFO] Execute statement succeeded.Flink SQL SHOW CREATE CATALOG cat; ------------------------------------------------------------------------------------------------- | result | ------------------------------------------------------------------------------------------------- | CREATE CATALOG cat WITH (default-database new-db,type generic_in_memory ) | ------------------------------------------------------------------------------------------------- 1 row in set更多信息 FLIP-436: Introduce Catalog-related Syntax DDL 支持 DISTRIBUTED BY 语句 鉴于越来越多的 SQL 引擎对外暴露了 “分区”、“分桶”或“聚类”的概念Flink 1.20 将“分桶”的概念引入了 Flink SQL。分桶操作通过将数据拆分为不相交的子集来实现数据在外部存储系统中的负载均衡。虽然它在很大程度上取决于底层连接器的语义但是用户可以通过指定分桶数量、算法以及用于目标分桶计算的列如果算法允许来影响分桶的行为。所有分桶相关的关键字在 SQL 语法中都是可选的。 Apache Paimon 的分桶表和 Apache Kafka 的 topic 分区都将对接到该语法上简化用户的建表操作并让 Flink SQL 感知了外部数据的物理分布为未来支持 bucket join 等优化打好了基础。 以下面的 SQL 语句为例 -- 指定桶的个数和数据分配逻辑(按照 uid 列的哈希值进行分配) CREATE TABLE MyTable (uid BIGINT, name STRING) DISTRIBUTED BY HASH(uid) INTO 4 BUCKETS;-- 不显示指定分桶算法数据分配逻辑由 Connector 自己决定。 CREATE TABLE MyTable (uid BIGINT, name STRING) DISTRIBUTED BY (uid) INTO 4 BUCKETS;-- 不显式指定桶的数量桶数量和数据分配逻辑均由 Connector 自己决定。 CREATE TABLE MyTable (uid BIGINT, name STRING) DISTRIBUTED BY (uid);-- 仅指定桶的数量 CREATE TABLE MyTable (uid BIGINT, name STRING) DISTRIBUTED INTO 4 BUCKETS;更多信息 FLIP-376: Add DISTRIBUTED BY clause 文档 状态 检查点提升 统一的检查点文件合并机制 Flink 1.20 引入了统一的检查点文件合并机制它将多个小的检查点文件合并为数量较少的大文件从而减少了文件创建和文件删除操作的次数并减轻了检查点期间文件系统元数据管理的压力。 可以通过将 execution.checkpointing.file-merging.enabled 设置为 true来启用该功能。有关更多高级选项以及此功能背后的原理请参阅文档。 更多信息 FLIP-306: Unified File Merging Mechanism for Checkpoints 文档 压缩小的 SST 文件 在某些情况下RocksDB 状态后端生成的文件数量会无限制地增长。除了许多小文件造成的开销之外此行为还可能导致任务状态信息超出 RPC 消息大小限制从而导致检查点失败。从 1.20 版开始Flink 可以使用 RocksDB API 在后台合并此类文件。 更多信息 FLINK-2605 批处理能力提升 JobMaster 发生故障时更好的错误恢复机制 在 Flink 1.20 中我们支持了一种新的批处理作业恢复机制使批处理作业能够在 JobMaster故障转移后尽可能多地恢复进度避免重新运行已经完成的任务。 更多信息 FLIP-383: Support Job Recovery from JobMaster Failures for Batch Jobs 文档 HiveSource 支持动态并发推断 在 Flink 1.20 中我们为 Hive 数据源连接器增加了对动态并发推断的支持这允许它基于动态分区修剪(DPP)的结果动态决定并行度。 此外我们引入了一个新的配置选项 table.exec.hive.infer-source-parallelism.mode使用户能够在数据源并行度的静态和动态推断模式之间进行切换。需要注意的是在 Flink 1.20 中以前的配置选项 table.exec.hive.infer-source-parallelism已被标记为弃用。 更多信息 FLIP-445: Support dynamic parallelism inference for HiveSource DataStream API 提升 DataSetAPI 已正式弃用并将在 Flink 2.0 版本中被删除。我们建议 Flink 用户根据数据处理需求将作业从 DataSet API 逐步迁移到 DataStream API、TableAPI 和 SQL。 支持 DataStream API 上的全量分区数据处理 在 Flink 1.20 之前DataStream API 不支持对非分区流上的数据做全量的数据聚合操作这阻碍了用户从 DataSetAPI 的迁移。作为一种替代方案用户可以将子任务的编号关联到数据上并以此为数据键来构建分区流但这会产生很大的额外开销。为此Flink 1.20 引入了 FullPartitionWindow API从而补齐了对全量分区数据处理的内置支持。 假设我们想要计算每个分区中的总记录数并输出到下游可以按如下方式完成 inputStream.fullWindowPartition().mapPartition(new MapPartitionFunctionRecord, Long() {Overridepublic void mapPartition(IterableRecord values, CollectorLong out)throws Exception {long counter 0;for (Record value : values) {counter;}out.collect(counter));}})更多信息 FLIP-380: Support Full Partition Processing On Non-keyed DataStream 重要配置项变更 随着 Apache Flink 即将来到 2.0 版本一大批配置项在 Flink 1.20 版本被更改或弃用以提高易用性和可维护性。 更新配置项为合适的类型 一系列与时间相关的配置项例如 client.heartbeat.interval的类型被更新为了 Duration。完整列表可在FLINK-35359 中找到。 配置项 taskmanager.network.compression.codec和 table.optimizer.agg-phase-strategy的类型被更新为了Enum。 配置项yarn.application-attempts的类型被更新为了 Int。 更多信息 FLINK-35359 弃用多个配置项 在 Flink 1.20 中社区决定正式弃用多个即将在 Flink 2.0 停用的配置项 由于我们正在逐步淘汰基于哈希的 Blocking Shuffle以下配置项已被弃用并将在 Flink 2.0 中被删除 taskmanager.network.sort-shuffle.min-parallelism taskmanager.network.blocking-shuffle.type 由于我们正在逐步淘汰旧的Hybrid Shuffle 模式以下配置项已被弃用并将在 Flink 2.0 中被删除 taskmanager.network.hybrid-shuffle.spill-index-region-group-size taskmanager.network.hybrid-shuffle.num-retained-in-memory-regions-max taskmanager.network.hybrid-shuffle.enable-new-mode 为了简化网络缓冲区相关配置以下配置选项已被弃用并将在 Flink 2.0 中被删除 taskmanager.network.memory.buffers-per-channel taskmanager.network.memory.floating-buffers-per-gate taskmanager.network.memory.max-buffers-per-channel taskmanager.network.memory.max-overdraft-buffers-per-gate taskmanager.network.memory.exclusive-buffers-request-timeout-ms (请使用 taskmanager.network.memory.buffers-request-timeout 代替) 由于绝大多数批作业都会开启压缩配置项 taskmanager.network.batch-shuffle.compression.enabled 已被弃用并将在 Flink 2.0 中被删除。如确有需要请将 taskmanager.network.compression.codec 设置为 NONE以禁用压缩。 以下与 Netty 相关的配置项过于底层已在 Flink 1.20 被弃用我们将在 Flink 2.0 中将其移除 taskmanager.network.netty.num-arenas taskmanager.network.netty.server.numThreads taskmanager.network.netty.client.numThreads taskmanager.network.netty.server.backlog taskmanager.network.netty.sendReceiveBufferSize taskmanager.network.netty.transport 以下配置项是不必要的已在 Flink 1.20 被弃用并且将在 Flink 2.0 中被删除 taskmanager.network.max-num-tcp-connections将在 Flink 2.0 中被硬编码为 1 fine-grained.shuffle-mode.all-blocking 以下配置项用于微调 TPC 测试但当前 Flink 已不再需要已被弃用并且将在 Flink 2.0 中被删除 table.exec.range-sort.enabled table.optimizer.rows-per-local-agg table.optimizer.join.null-filter-threshold table.optimizer.semi-anti-join.build-distinct.ndv-ratio table.optimizer.shuffle-by-partial-key-enabled table.optimizer.smj.remove-sort-enabled table.optimizer.cnf-nodes-limit 以下配置项是为现已过时的 FilterableTableSource 接口引入的已被弃用并且将在 Flink 2.0 中被删除 table.optimizer.source.aggregate-pushdown-enabled table.optimizer.source.predicate-pushdown-enabled 配置选项sql-client.display.max-column-width已被弃用并且将在 Flink 2.0 中被删除。请改用 table.display.max-column-width替代。 更多信息 Runtime 相关配置项变更 Table/SQL 相关配置项变更 配置项的其他变更 重新组织配置项 在 Flink 1.20 中所有关于状态和检查点的配置项都被重新组织并按前缀分类 execution.checkpointing.*所有与检查点和保存点相关的配置选项。 execution.state-recovery.*所有与状态恢复相关的配置选项。 state.*所有与状态访问相关的配置选项。 state.backend.*: 各个状态后端的配置选项例如 RocksDB 状态后端。 state.changelog.*与状态变更日志相关的配置选项。 state.latency-track.*与状态访问的延迟追踪相关的配置选项。 新的公开配置项 以下与动态哈希聚合相关配置项已从 org.apache.flink.table.planner.codegen.agg.batch.HashAggCodeGenerator移动至 org.apache.flink.table.api.config 并提升为 PublicEvolvingAPI: table.exec.local-hash-agg.adaptive.enabled table.exec.local-hash-agg.adaptive.sampling-threshold table.exec.local-hash-agg.adaptive.distinct-value-rate-threshold 以下与 LookupJoin 相关的配置项已从 org.apache.flink.table.planner.hint.LookupJoinHintOptions移动至 org.apache.flink.table.api.config.LookupJoinHintOptions并提升为 PublicEvolvingAPI: table async output-mode capacity timeout retry-predicate retry-strategy fixed-delay max-attempts 以下与优化器有关的配置项已从 org.apache.flink.table.planner.plan.optimize.RelNodeBlock移动至 org.apache.flink.table.api.config.OptimizerConfigOptions并升级为 PublicEvolvingAPI: table.optimizer.union-all-as-breakpoint-enabled table.optimizer.reuse-optimize-block-with-digest-enabled table.optimizer.incremental-agg-enabled 已从 org.apache.flink.table.planner.plan.rules.physical.stream.IncrementalAggregateRule移动至 org.apache.flink.table.api.config.OptimizerConfigOptions 并升级为 PublicEvolvingAPI. 更多信息 Runtime 相关配置项变更 Table/SQL 相关配置项变更 Checkpointing Options Recovery Options State Backend Options State Changelog Options Latency-track Options 升级说明 Apache Flink 社区努力确保升级过程尽可能平稳, 但是升级到 1.20 版本可能需要用户对现有应用程序做出一些调整。请参考Release Notes获取更多的升级时需要的改动与可能的问题列表细节。 贡献者列表 在 1.20 版本中我们一如既往地看到了许多来自中国的开发者身影。他们积极参与并贡献社区协助新版本的发布四个版本发布管理者(Release Manager)中有两位均来自国内分别是来自阿里云智能的郭伟杰和来自 Shopee 的范瑞。中国开发者在 1.20 备受期待的新功能上也作出了巨大贡献例如来自阿里云的开发者们主导并贡献了物化表、检查点文件合并、JobMaster 发生故障时更好的错误恢复机制等特性。来自字节跳动网易小米等公司的开发者们也都为社区带来了非常多的重要功能贡献和 bug 修复。 Apache Flink 社区感谢对此版本做出贡献的每一位贡献者 Ahmed Hamdy, Alan Sheinberg, Aleksandr Pilipenko, Alexander Fedulov, Andrey Gaskov, Antonio Vespoli, Anupam Aggarwal, Barak Ben-Nathan, Benchao Li, Brad, Cheng Pan, Chesnay Schepler, DamonXue, Danny Cranmer, David Christle, David Moravek, David Schlosnagle, Dawid Wysakowicz, Dian Fu, Dmitriy Linevich, Elphas Toringepi, Emre Kartoglu, Fang Yong, Feng Jin, Ferenc Csaky, Frank Yin, Gabor Somogyi, Gyula Fora, HCTommy, Hangxiang Yu, Hanyu Zheng, Hao Li, Hong Liang Teoh, Hong Teoh, HuangXingBo, Jacky Lau, James Hughes, Jane Chan, Jeyhun Karimov, Jiabao Sun, Jim Hughes, Jing Ge, Jinzhong Li, JunRuiLee, Juntao Hu, JustinLee, Kartikey Pant, Kumar Mallikarjuna, Leonard Xu, Lorenzo Affetti, Luke Chen, Martijn Visser, Mason Chen, Matthias Pohl, Mingliang Liu, Panagiotis Garefalakis, Peter Huang, Peter Vary, Piotr Nowojski, Puneet Duggal, Qinghui Xu, Qingsheng Ren, Ravi Dutt Singh, Robert Metzger, Robert Young, Roc Marshal, Roman, Roman Boyko, Roman Khachatryan, Ron, Rui Fan, Ryan Skraba, Samrat, Sergey Nuyanzin, Shilun Fan, Stefan Richter, SuDewei, Timo Walther, Ufuk Celebi, Vincent Woo, Wang FeiFan, Weijie Guo, Wencong Liu, Wouter Zorgdrager, Xiangyu Feng, Xintong Song, Xuyang, Yanfei Lei, Yangze Guo, Yu Chen, Yubin Li, Yuepeng Pan, Yun Tang, Yuxin Tan, Zakelly, Zhanghao Chen, Zhen Wang, Zhenqiu Huang, Zhu Zhu, Zmm, ammar-master, anupamaggarwal, bvarghese1, caicancai, caodizhou, chenzihao, drymatini, dsaisharath, eason.qin, elon-X, fengli, gongzhongqiang, hejufang, jectpro7, jiangxin, liming.1018, lincoln lee, liuyongvs, lxliyou001, oleksandr.nitavskyi, plugatarev, rmoff, slfan1989, spoon-lz, sunxia, sxnan, sychen, wforget, xiaogang, xingbo, yebukong, yunfengzhou-hub, yunhong, zhouyisha, 马越
http://www.tj-hxxt.cn/news/227068.html

相关文章:

  • 哈尔滨seo网站管理个人艺术作品网站建设策划书
  • 课桌公司网站建设个人网站做博客还是做论坛
  • dedecms做网站视频牙膏的网站建设
  • 做网站优化给业务员提成成都网站建设制作公司
  • 网站建设 网站制作广州优秀网站设计
  • 长沙市做网站公司有创意的logo设计图片
  • 网站开发存在的风险seo培训优化课程
  • nodejs做企业网站哪个网站可以做分期
  • 专门做优惠劵的网站谷德设计网入口
  • 手机网站开发升上去如何在木上做网站
  • 做原创短视频网站网站下载怎么做
  • 建立装修网站设计厦门商务网站建设
  • 实时开奖走势网站建设保密和档案网站建设方案
  • 微站网站建设网站企业网银登录
  • 重庆网站建设套餐徐州专业网站建设
  • 响应式 购物网站模板下载商业网站的域名代码
  • 商城网站微信支付接口申请流程建德网页制作公司
  • 2017网站设计如何报价企业网站排版规则
  • 郑州做网站公司有哪些模板网站优
  • 实训网站建设的心得总结查询企业联系方式的软件
  • 网站用哪个数据库网站开发环境搭建
  • 国外建站数据wordpress修改登陆地址后缀
  • 如何搭建php网站凌风wordpress视频
  • wordpress建站教程费用网页代理访问
  • 网站如何做优化排名吃什么补肾气效果好
  • 网站上的链接怎么做的怎么查一个网站是什么程序做的
  • 外贸网站运营是做什么的wordpress模板yunnut
  • 浙江省建设监理协会管网站公式wordpress
  • 怎样做才能让自己的网站深圳便宜的网站建设
  • 视觉差网站制作vps网站空间