当前位置: 首页 > news >正文

设计网站推荐外网seo网站优化培训怎么样

设计网站推荐外网,seo网站优化培训怎么样,怎么用服务器lp做网站,张向东作者: 是我的海 原文来源: https://tidb.net/blog/5f9784d3 近期在使用 TiDB 时遇到的一些小问题的梳理总结,大部分版本都在6.5.6和7.5.2 1、limit 导致的扫描量过大的优化 研发定时任务每天需要扫描大量数据,到时机器网卡被…

作者: 是我的海 原文来源: https://tidb.net/blog/5f9784d3

近期在使用 TiDB 时遇到的一些小问题的梳理总结,大部分版本都在6.5.6和7.5.2

1、limit 导致的扫描量过大的优化

研发定时任务每天需要扫描大量数据,到时机器网卡被打满,严重影响集群性能。 这个 SQL 的主要问题在于: a. ha3data 是text 字段

b. 虽然是 limit 1000 但是实际上扫描的量远超过1000 条 图片

SELECT utime, ha3Data  FROM  tblAdxxxx  WHERE  utime <= 1718804236  AND utime >= 1
AND (deleted = 0)  ORDER BY  utime DESC  LIMIT  1000

图片图片

解决办法: 1、将utime 时间范围缩短,但是研发人员认为修改成本高 2、修改tidb_opt_limit_push_down_threshold 的值大于1000 第二种方法官方老师推荐不要直接修改优化器的参数,可能会遇到未知问题,影响其他sql ,建议在语句里加hint

SELECT  /*+ SET_VAR(tidb_opt_limit_push_down_threshold=2000) */   utime,   ha3Data FROM

修改之后,网卡使用立即下降 图片

2、为表增加ttl 属性自动删除过期数据导致的raft cpu 飙高

我们使用7.5.2 版本的主要初衷是使用自动过期,可以让研发不用手动清理数据,但是在使用的时候注意两点 a. 尽量在业务低峰时段进行ttl 的操作(通过参数设置)

b. 调小ttl 相关的参数

MySQL [(none)]> show variables like '%ttl%';
+-----------------------------------------+-------------+
| Variable_name                           | Value       |
+-----------------------------------------+-------------+
| tidb_ttl_delete_batch_size              | 100         |
| tidb_ttl_delete_rate_limit              | 0           |
| tidb_ttl_delete_worker_count            | 2           |
| tidb_ttl_job_enable                     | ON          |
| tidb_ttl_job_schedule_window_end_time   | 07:23 +0800 |
| tidb_ttl_job_schedule_window_start_time | 23:11 +0800 |
| tidb_ttl_running_tasks                  | -1          |
| tidb_ttl_scan_batch_size                | 300         |
| tidb_ttl_scan_worker_count              | 2           |
+-----------------------------------------+-------------+

图片 从tikv-details 的grpc 监控中可以看到有大量的ttl qps, 将ttl 的运行时间调整成半夜时间范围后,raft cpu 使用率明显下降 图片

3、表的自增id 连续性问题的

业务反馈表的自增id 不够连续,每次都是增加2 个步长,研发人员担心涨的过快超过下游业务消费时出现类型溢出的问题,想要实现mysql 那样的连续递增 图片 解决办法:

为表增加AUTO_CACHE_ID 注意:据社区小伙伴反馈,7.5.1 这个属性有bug ,并且7.5.1 还有cdc 相关的配置不兼容6.5.x 的bug, 需要升级到7.5.2 之后, 但是7.5.2 发现了在fast-ddl 模式下增加索引卡住的情况 https://asktug.com/t/topic/1030933

4、频繁删除数据导致越来越慢的问题

图片 问题原因: 在删除数据后有大量的过期版本,但是rocksdb compact 不够及时,导致后续删除的时候会扫描大量的过期版本而越来越慢,key_skipped_count 会特别大 解决办法: 1、删除的时候尽量控制条件的范围比如使用id 或者时间字段做小范围的限制 2、等待8.x 版本的新功能每天增量compact

http://www.tj-hxxt.cn/news/9087.html

相关文章:

  • 日本雅虎网站开发客户怎么点百度优化
  • 用树莓派做网站服务器seo 优化公司
  • 东莞建设工程交易中心网站网络推广优化培训
  • 深圳精品网站建设获客引流100种方法
  • 企业网站的制作原则东莞疫情最新消息今天新增病例
  • 网站建设的公司哪家好今日油价92汽油价格
  • 美美淘-专做女鞋拿货选款网站seo关键词排名优化专业公司
  • 河南航天建设工程有限公司网站网络优化工程师
  • 专业网站设计工作室广东网站se0优化公司
  • seo搜索引擎入门教程seo网站培训优化怎么做
  • 商贸公司的网站建设重庆seo全网营销
  • phpcms v9企业网站模板(简洁利于优化)青岛做网站推广公司
  • 静态网站怎么做百度怎么推广自己的作品
  • 网站域名301网页制作免费模板
  • 做期货与做网站的关系域名注册查询软件
  • 找建网站公司电脑版百度
  • 手机上怎么上传网站吗平台推广营销
  • 网址导航app下载广州seo网络优化公司
  • 电力建设集团网站南京seo关键词优化预订
  • 做旅游的网站推广文案范文100字
  • 做网站的费用记什么会计科目市场调研报告包括哪些内容
  • 网站安全建设论文手机网站建设价格
  • 查找5个搜索引擎作弊的网站在线磁力搜索引擎
  • 怎样在手机做自己的网站6网络推广方案范文
  • 国外网站搭建平台指数型基金怎么买
  • wordpress教育培训主题百度seo是什么
  • 哪个网站卖自己做的手工艺品磁力链bt磁力天堂
  • 禅城网站制作百度认证服务平台
  • 做爰全的网站歌尔股份砍单
  • 做网站时怎么让边框细一点沈阳网站制作公司