做公司网站开发的公司,wordpress 修改配置文件,微信24小时网站建设,网站英文Redis持久化
RDB快照#xff08;snapshot#xff09;
在默认情况下#xff0c; Redis 将内存数据库快照保存在名字为 dump.rdb 的二进制文件中。 你可以对 Redis 进行设置#xff0c; 让它在“ N 秒内数据集至少有 M 个改动”这一条件被满足时#xff0c; 自动保存一次数…Redis持久化
RDB快照snapshot
在默认情况下 Redis 将内存数据库快照保存在名字为 dump.rdb 的二进制文件中。 你可以对 Redis 进行设置 让它在“ N 秒内数据集至少有 M 个改动”这一条件被满足时 自动保存一次数据集。 比如说 以下设置会让 Redis 在满足“ 60 秒内有至少有 1000 个键被改动”这一条件时 自动保存一次数据集
# save 60 1000 //关闭RDB只需要将所有的save保存策略注释掉即可
还可以手动执行命令生成RDB快照进入redis客户端执行命令save或bgsave可以生成dump.rdb文件每次命令执行都会将所有redis内存快照到一个新的rdb文件里并覆盖原有rdb快照文件。
bgsave的写时复制(COW)机制 Redis 借助操作系统提供的写时复制技术Copy-On-Write, COW在生成快照的同时依然可以正常处理写命令。简单来说bgsave 子进程是由主线程 fork 生成的可以共享主线程的所有内存数据。bgsave 子进程运行后开始读取主线程的内存数据并把它们写入 RDB 文件。此时如果主线程对这些数据也都是读操作那么主线程和 bgsave 子进程相互不影响。但是如果主线程要修改一块数据那么这块数据就会被复制一份生成该数据的副本。然后bgsave 子进程会把这个副本数据写入 RDB 文件而在这个过程中主线程仍然可以直接修改原来的数据。 save与bgsave对比
命令savebgsaveIO类型同步异步是否阻塞redis其他命令是否在生成子进程执行调用fork函数时会有短暂阻塞复杂度O(n)O(n)优点不会消耗额外内存不阻塞客户端命令缺点阻塞客户端命令需要fork子进程消耗内存
配置自动生成rdb文件后台使用的是bgsave方式。
AOFappend-only file
快照功能并不是非常耐久durable 如果 Redis 因为某些原因而造成故障停机 那么服务器将丢失最近写入、且仍未保存到快照中的那些数据。 从 1.1 版本开始 Redis 增加了一种完全耐久的持久化方式 AOF 持久化将修改的每一条指令记录进文件appendonly.aof中(先写入os cache每隔一段时间fsync到磁盘) 比如执行命令“set tacy 666”aof文件里会记录如下数据
*3
$3
set
$5
tacy
$3
666这是一种resp协议格式数据
星号后面的数字代表命令有多少个参数$号后面的数字代表这个参数有几个字符
注意如果执行带过期时间的set命令aof文件里记录的是并不是执行的原始命令而是记录key过期的时间戳 比如执行“set lucy 888 ex 1000”对应aof文件里记录如下
*3
$3
set
$6
lucy
$3
888
*3
$9
PEXPIREAT
$6
lucy
$13
1604249786301你可以通过修改配置文件来打开 AOF 功能
# appendonly yes从现在开始 每当 Redis 执行一个改变数据集的命令时比如 SET 这个命令就会被追加到 AOF 文件的末尾。这样的话 当 Redis 重新启动时 程序就可以通过重新执行 AOF 文件中的命令来达到重建数据集的目的。
你可以配置 Redis 多久才将数据 fsync 到磁盘一次。 有三个选项
appendfsync always每次有新命令追加到 AOF 文件时就执行一次 fsync 非常慢也非常安全。
appendfsync everysec每秒 fsync 一次足够快并且在故障时只会丢失 1 秒钟的数据。
appendfsync no从不 fsync 将数据交给操作系统来处理。更快也更不安全的选择。推荐并且也是默认的措施为每秒 fsync 一次 这种 fsync 策略可以兼顾速度和安全性。 AOF重写 AOF文件里可能有太多没用指令所以AOF会定期根据内存的最新数据生成aof文件 例如执行了如下几条命令
重写后AOF文件里变成
*3
$3
SET
$2
readcount
$1
5以下两个配置可以控制AOF自动重写频率
# auto-aof-rewrite-min-size 64mb //aof文件至少要达到64M才会自动重写文件太小恢复速度本来就很快重写的意义不大
# auto-aof-rewrite-percentage 100 //aof文件自上一次重写后文件大小增长了100%则再次触发重写当然AOF还可以手动重写进入redis客户端执行命令bgrewriteaof重写AOF 注意AOF重写redis会fork出一个子进程去做(与bgsave命令类似)不会对redis正常命令处理有太多影响
生产环境可以都启用redis启动时如果既有rdb文件又有aof文件则优先选择aof文件恢复数据因为aof一般来说数据更全一点。
Redis 4.0 混合持久化
重启 Redis 时我们很少使用 RDB来恢复内存状态因为会丢失大量数据。我们通常使用 AOF 日志重放但是重放 AOF 日志性能相对 RDB来说要慢很多这样在 Redis 实例很大的情况下启动需要花费很长的时间。 Redis 4.0 为了解决这个问题带来了一个新的持久化选项——混合持久化。 通过如下配置可以开启混合持久化(必须先开启aof)
# aof-use-rdb-preamble yes 如果开启了混合持久化AOF在重写时不再是单纯将内存数据转换为RESP命令写入AOF文件而是将重写这一刻之前的内存做RDB快照处理并且将RDB快照内容和增量的AOF修改内存数据的命令存在一起都写入新的AOF文件新的文件一开始不叫appendonly.aof等到重写完新的AOF文件才会进行改名覆盖原有的AOF文件完成新旧两个AOF文件的替换。 于是在 Redis 重启的时候可以先加载 RDB 的内容然后再重放增量 AOF 日志就可以完全替代之前的 AOF 全量文件重放因此重启效率大幅得到提升。
混合持久化AOF文件结构如下
Redis数据备份策略
写crontab定时调度脚本每小时都copy一份rdb或aof的备份到一个目录中去仅仅保留最近48小时的备份每天都保留一份当日的数据备份到一个目录中去可以保留最近1个月的备份每次copy备份的时候都把太旧的备份给删了每天晚上将当前机器上的备份复制一份到其他机器上以防机器损坏
Redis主从架构 redis主从架构搭建配置从节点步骤
1、复制一份redis.conf文件
2、将相关配置修改为如下值
port 6380
pidfile /var/run/redis_6380.pid # 把pid进程号写入pidfile配置的文件
logfile 6380.log
dir /usr/local/redis-5.0.3/data/6380 # 指定数据存放目录
# 需要注释掉bind
# bind 127.0.0.1bind绑定的是自己机器网卡的ip如果有多块网卡可以配多个ip代表允许客户端通过机器的哪些网卡ip去访问内网一般可以不配置bind注释掉即可3、配置主从复制
replicaof 192.168.0.60 6379 # 从本机6379的redis实例复制数据Redis 5.0之前使用slaveof
replica-read-only yes # 配置从节点只读4、启动从节点
redis-server redis.conf # redis.conf文件务必用你复制并修改了之后的redis.conf文件5、连接从节点
redis-cli -p 63806、测试在6379实例上写数据6380实例是否能及时同步新修改数据
7、可以自己再配置一个6381的从节点
Redis主从工作原理
如果你为master配置了一个slave不管这个slave是否是第一次连接上Master它都会发送一个PSYNC命令给master请求复制数据。master收到PSYNC命令后会在后台进行数据持久化通过bgsave生成最新的rdb快照文件持久化期间master会继续接收客户端的请求它会把这些可能修改数据集的请求缓存在内存中。当持久化进行完毕以后master会把这份rdb文件数据集发送给slaveslave会把接收到的数据进行持久化生成rdb然后再加载到内存中。然后master再将之前缓存在内存中的命令发送给slave。当master与slave之间的连接由于某些原因而断开时slave能够自动重连Master如果master收到了多个slave并发连接请求它只会进行一次持久化而不是一个连接一次然后再把这一份持久化的数据发送给多个并发连接的slave。 数据部分复制
当master和slave断开重连后一般都会对整份数据进行复制。但从redis2.8版本开始redis改用可以支持部分数据复制的命令PSYNC去master同步数据slave与master能够在网络连接断开重连后只进行部分数据复制(断点续传)。master会在其内存中创建一个复制数据用的缓存队列缓存最近一段时间的数据master和它所有的slave都维护了复制的数据下标offset和master的进程id因此当网络连接断开后slave会请求master继续进行未完成的复制从所记录的数据下标开始。如果master进程id变化了或者从节点数据下标offset太旧已经不在master的缓存队列里了那么将会进行一次全量数据的复制。