redis持久化及五大数据类型

2021/11/15 19:10:33

本文主要是介绍redis持久化及五大数据类型,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

目录

一.redis高可用 

二.redis持久化

RDB和AOF的区别

① 实现方式

② 文件体积

③ 安全性

④ 优先级

2.1RDB 持久化

2.2AOF 持久化

三.五大数据类型

3.1、String数据类型

1、 SET/GET/APPEND/STRLEN:

2、 INCR/DECR/INCRBY/DECRBY:

3、 GETSET:

4、SETEX:

5、 SETNX:

6、 MSET/MGET/MSETNX:

3.2、List 数据类型

1、 LPUSH/LPUSHX/ LRANGE:

2、LPOP/LLEN:

3、LREM/LSET/LINDEX/LTRIM:

4、 LINSERT

5、RPUSH/ RPUSHX/RPOP/RPOPLPUSH:

3.3、Hash数据类型 (散列类型)

1、 HSET/HGET/HDEL/HEXISTS/HLEN/HSETNX:

2、HINCRBY:

3、 HGETALL/HKEYS/HVALS/HMGET /HMSET:

3.4、set数据类型(无序集合)

1、SADD/ SMEMBERS/ SCARD/ SISMEMBER:

2、SPOP/SREM/ SRANDMEMBER/ SMOVE

3.5、Sorted Set数据类型 (zset、有序集合)

1、ZADD/ ZCARD/ ZCOUNT / ZREM/ ZINCRBY/ ZSCORE/ ZRANGE/ ZRANK:

2、Z RANGE BY SCORE/ Z REM RANGE BY RANK/ Z REM RANGE BY SCORE

3、ZREVRANGE/ ZREVRANGEBYSCORE/ ZREVRANK:


一.redis高可用 

在web服务器中,高可用是指服务器可以正常访问的时间,衡量的标准是在多长时间内可以提供正常服务(99.9%、99.99%、99.999%等等)。
但是在Redis语境中,高可用的含义似乎要宽泛一些,除了保证提供正常服务(如主从分离、快速容灾技术),还需要考虑数据容量的扩展、数据安全不会丢失等。

在Redis中,实现高可用的技术主要包括持久化、主从复制、哨兵和集群,下面分别说明它们的作用,以及解决了什么样的问题:

●持久化:持久化是最简单的高可用方法(有时甚至不被归为高可用的手段),主要作用是数据备份,即将数据存储在硬盘,保证数据不会因进程退出而丢失。

●主从复制:主从复制是高可用Redis的基础,哨兵和集群都是在主从复制基础上实现高可用的。主从复制主要实现了数据的多机备份,以及对于读操作的负载均衡和简单的故障恢复。缺陷:故障恢复无法自动化;写操作无法负载均衡;存储能力受到单机的限制。

●哨兵:在主从复制的基础上,哨兵实现了自动化的故障恢复。缺陷:写操作无法负载均衡;存储能力受到单机的限制。

●集群:通过集群,Redis解决了写操作无法负载均衡,以及存储能力受到单机限制的问题,实现了较为完善的高可用方案。

二.redis持久化

持久化的功能:Redis是内存数据库,数据都是存储在内存中,为了避免服务器断电等原因导致Redis进程异常退出后数据的永久丢失,需要定期将Redis中的数据以某种形式(数据或命令)从内存保存到硬盘;当下次Redis重启时,利用持久化文件实现数据恢复。除此之外,为了进行灾难备份,可以将持久化文件拷贝到一个远程位置。

Redis 提供两种方式进行持久化:

●RDB 持久化:原理是将 Reids在内存中的数据库记录定时保存到磁盘上。
●AOF 持久化(append only file):原理是将 Reids 的操作日志以追加的方式写入文件,类似于MySQL的binlog。

由于AOF持久化的实时性更好,即当进程意外退出时丢失的数据更少,因此AOF是目前主流的持久化方式,不过RDB持久化仍然有其用武之地。

RDB和AOF的区别

主要为以下四点:

实现方式
文件体积
安全性
优先级

① 实现方式

RDB持久化是通过将某个时间点Redis服务器存储的数据保存到RDB文件中来实现持久化的。
AOF持久化是通过将Redis服务器执行的所有写命令保存到AOF文件中来实现持久化的。

② 文件体积

由以上实现方式可知,RDB持久化记录的是结果,AOF持久化记录的是过程,所以AOF持久化生成的AOF文件会有体积越来越大的问题,Redis提供了AOF重写功能来减小AOF文件体积。

③ 安全性

AOF持久化的安全性要比RDB持久化的安全性高,即如果发生机器故障,AOF持久化要比RDB持久化丢失的数据减少。

④ 优先级

由于以上的安全性问题,如果Redis服务器开启了AOF持久化功能,Redis服务器在启动时会使用AOF文件还原数据,如果Redis服务器没有开启AOF持久化功能,Redis服务器在启动时使用RDB文件的优先级比RDB文件的优先级高。

2.1RDB 持久化

RDB持久化是指在指定的时间间隔内将内存中当前进程中的数据生成快照保存到硬盘(因此也称作快照持久化),用二进制压缩存储,保存的文件后缀是rdb;当Redis重新启动时,可以读取快照文件恢复数据。

 1、触发条件
RDB持久化的触发分为手动触发和自动触发两种。

(1)手动触发
save命令和bgsave命令都可以生成RDB文件。
save命令会阻塞Redis服务器进程,直到RDB文件创建完毕为止,在Redis服务器阻塞期间,服务器不能处理任何命令请求。
而bgsave命令会创建一个子进程,由子进程来负责创建RDB文件,父进程(即Redis主进程)则继续处理请求。

bgsave命令执行过程中,只有fork子进程时会阻塞服务器,而对于save命令,整个过程都会阻塞服务器,因此save已基本被废弃,线上环境要杜绝save的使用。

(2)自动触发
在自动触发RDB持久化时,Redis也会选择bgsave而不是save来进行持久化。

save m n

自动触发最常见的情况是在配置文件中通过save m n,指定当m秒内发生n次变化时,会触发bgsave。

vim /etc/redis/6379.conf

 219行以下三个save条件满足任意一个时,都会引起bgsave的调用

save 900 1 :当时间到900秒时,如果redis数据发生了至少1次变化,则执行bgsave
save 300 10 :当时间到300秒时,如果redis数据发生了至少10次变化,则执行bgsave
save 60 10000 :当时间到60秒时,如果redis数据发生了至少10000次变化,则执行bgsave

254行指定RDB文件名

dbfilename dump.rdb

264行指定RDB文件和AOF文件所在目录

dir /var/lib/redis/6379

242行是否开启RDB文件压缩

rdbcompression yes

其他自动触发机制

除了save m n 以外,还有一些其他情况会触发bgsave:
●在主从复制场景下,如果从节点执行全量复制操作,则主节点会执行bgsave命令,并将rdb文件发送给从节点。
●执行shutdown命令时,自动执行rdb持久化。

2、执行流程
(1)Redis父进程首先判断:当前是否在执行save,或bgsave/bgrewriteaof的子进程,如果在执行则bgsave命令直接返回。 bgsave/bgrewriteaof的子进程不能同时执行,主要是基于性能方面的考虑:两个并发的子进程同时执行大量的磁盘写操作,可能引起严重的性能问题。
(2)父进程执行fork操作创建子进程,这个过程中父进程是阻塞的,Redis不能执行来自客户端的任何命令
(3)父进程fork后,bgsave命令返回”Background saving started”信息并不再阻塞父进程,并可以响应其他命令
(4)子进程创建RDB文件,根据父进程内存快照生成临时快照文件,完成后对原有文件进行原子替换
(5)子进程发送信号给父进程表示完成,父进程更新统计信息

3、启动时加载
RDB文件的载入工作是在服务器启动时自动执行的,并没有专门的命令。但是由于AOF的优先级更高,因此当AOF开启时,Redis会优先载入 AOF文件来恢复数据;只有当AOF关闭时,才会在Redis服务器启动时检测RDB文件,并自动载入。服务器载入RDB文件期间处于阻塞状态,直到载入完成为止。
Redis载入RDB文件时,会对RDB文件进行校验,如果文件损坏,则日志中会打印错误,Redis启动失败。

2.2AOF 持久化

RDB持久化是将进程数据写入文件,而AOF持久化,则是将Redis执行的每次写、删除命令记录到单独的日志文件中,查询操作不会记录; 当Redis重启时再次执行AOF文件中的命令来恢复数据。
与RDB相比,AOF的实时性更好,因此已成为主流的持久化方案。

1、 开启AOF
Redis服务器默认开启RDB,关闭AOF;要开启AOF,需要在配置文件中配置:

vim /etc/redis/6379.conf

700行修改,开启AOF

appendonly yes

704行指定AOF文件名称

appendfilename "appendonly.aof"

796行是否忽略最后一条可能存在问题的指令

aof-load-truncated yes

/etc/init.d/redis_6379 restart

2、执行流程
由于需要记录Redis的每条写命令,因此AOF不需要触发,下面介绍AOF的执行流程。

AOF的执行流程包括:
●命令追加(append):将Redis的写命令追加到缓冲区aof_buf;
●文件写入(write)和文件同步(sync):根据不同的同步策略将aof_buf中的内容同步到硬盘;
●文件重写(rewrite):定期重写AOF文件,达到压缩的目的。

(1)命令追加(append)
Redis先将写命令追加到缓冲区,而不是直接写入文件,主要是为了避免每次有写命令都直接写入硬盘,导致硬盘IO成为Redis负载的瓶颈。
命令追加的格式是Redis命令请求的协议格式,它是一种纯文本格式,具有兼容性好、可读性强、容易处理、操作简单避免二次开销等优点。在AOF文件中,除了用于指定数据库的select命令(如select 0为选中0号数据库)是由Redis添加的,其他都是客户端发送来的写命令。

(2)文件写入(write)和文件同步(sync)
Redis提供了多种AOF缓存区的同步文件策略,策略涉及到操作系统的write函数和fsync函数,说明如下:
为了提高文件写入效率,在现代操作系统中,当用户调用write函数将数据写入文件时,操作系统通常会将数据暂存到一个内存缓冲区里,当缓冲区被填满或超过了指定时限后,才真正将缓冲区的数据写入到硬盘里。这样的操作虽然提高了效率,但也带来了安全问题:如果计算机停机,内存缓冲区中的数据会丢失;因此系统同时提供了fsync、fdatasync等同步函数,可以强制操作系统立刻将缓冲区中的数据写入到硬盘里,从而确保数据的安全性。

AOF缓存区的同步文件策略存在三种同步方式,它们分别是:

vim /etc/redis/6379.conf

729
●appendfsync always: 命令写入aof_buf后立即调用系统fsync操作同步到AOF文件,fsync完成后线程返回。这种情况下,每次有写命令都要同步到AOF文件,硬盘IO成为性能瓶颈,Redis只能支持大约几百TPS写入,严重降低了Redis的性能;即便是使用固态硬盘(SSD),每秒大约也只能处理几万个命令,而且会大大降低SSD的寿命。

●appendfsync no: 命令写入aof_buf后调用系统write操作,不对AOF文件做fsync同步;同步由操作系统负责,通常同步周期为30秒。这种情况下,文件同步的时间不可控,且缓冲区中堆积的数据会很多,数据安全性无法保证。

●appendfsync everysec: 命令写入aof_buf后调用系统write操作,write完成后线程返回;fsync同步文件操作由专门的线程每秒调用一次。everysec是前述两种策略的折中,是性能和数据安全性的平衡,因此是Redis的默认配置,也是我们推荐的配置。

(3)文件重写(rewrite)
随着时间流逝,Redis服务器执行的写命令越来越多,AOF文件也会越来越大;过大的AOF文件不仅会影响服务器的正常运行,也会导致数据恢复需要的时间过长。

文件重写是指定期重写AOF文件,减小AOF文件的体积。需要注意的是,AOF重写是把Redis进程内的数据转化为写命令,同步到新的AOF文件;不会对旧的AOF文件进行任何读取、写入操作!

关于文件重写需要注意的另一点是:对于AOF持久化来说,文件重写虽然是强烈推荐的,但并不是必须的;即使没有文件重写,数据也可以被持久化并在Redis启动的时候导入;因此在一些实现中,会关闭自动的文件重写,然后通过定时任务在每天的某一时刻定时执行.

文件重写之所以能够压缩AOF文件,原因在于:
●过期的数据不再写入文件
●无效的命令不再写入文件:如有些数据被重复设值(set mykey v1, set mykey v2)、有些数据被删除了(sadd myset v1, del myset)等。
●多条命令可以合并为一个:如sadd myset v1, sadd myset v2, sadd myset v3可以合并为sadd myset v1 v2 v3。

通过上述内容可以看出,由于重写后AOF执行的命令减少了,文件重写既可以减少文件占用的空间,也可以加快恢复速度。

文件重写的触发,分为手动触发和自动触发:
●手动触发:直接调用bgrewriteaof命令,该命令的执行与bgsave有些类似:都是fork子进程进行具体的工作,且都只有在fork时阻塞。
●自动触发:通过设置auto-aof-rewrite-min-size选项和auto-aof-rewrite-percentage选项来自动执行BGREWRITEAOF。 只有当auto-aof-rewrite-min-size和auto-aof-rewrite-percentage两个选项同时满足时,才会自动触发AOF重写,即bgrewriteaof操作。

vim /etc/redis/6379.conf

771
●auto-aof-rewrite-percentage 100 :当前AOF文件大小(即aof_current_size)是上次日志重写时AOF文件大小(aof_base_size)两倍时,发生BGREWRITEAOF操作
●auto-aof-rewrite-min-size 64mb :当前AOF文件执行BGREWRITEAOF命令的最小值,避免刚开始启动Reids时由于文件尺寸较小导致频繁的BGREWRITEAOF

关于文件重写的流程,有两点需要特别注意:(1)重写由父进程fork子进程进行;(2)重写期间Redis执行的写命令,需要追加到新的AOF文件中,为此Redis引入了aof_rewrite_buf缓存。

文件重写的流程如下
(1)Redis父进程首先判断当前是否存在正在执行bgsave/bgrewriteaof的子进程,如果存在则bgrewriteaof命令直接返回,如果存在 bgsave命令则等bgsave执行完成后再执行。
(2)父进程执行fork操作创建子进程,这个过程中父进程是阻塞的。
(3.1)父进程fork后,bgrewriteaof命令返回”Background append only file rewrite started”信息并不再阻塞父进程, 并可以响应其他命令。Redis的所有写命令依然写入AOF缓冲区,并根据appendfsync策略同步到硬盘,保证原有AOF机制的正确。
(3.2)由于fork操作使用写时复制技术,子进程只能共享fork操作时的内存数据。由于父进程依然在响应命令,因此Redis使用AOF重写缓冲区(aof_rewrite_buf)保存这部分数据,防止新AOF文件生成期间丢失这部分数据。也就是说,bgrewriteaof执行期间,Redis的写命令同时追加到aof_buf和aof_rewirte_buf两个缓冲区。
(4)子进程根据内存快照,按照命令合并规则写入到新的AOF文件。
(5.1)子进程写完新的AOF文件后,向父进程发信号,父进程更新统计信息,具体可以通过info persistence查看。
(5.2)父进程把AOF重写缓冲区的数据写入到新的AOF文件,这样就保证了新AOF文件所保存的数据库状态和服务器当前状态一致。
(5.3)使用新的AOF文件替换老文件,完成AOF重写。

3、启动时加载
当AOF开启时,Redis启动时会优先载入AOF文件来恢复数据;只有当AOF关闭时,才会载入RDB文件恢复数据。
当AOF开启,但AOF文件不存在时,即使RDB文件存在也不会加载。
Redis载入AOF文件时,会对AOF文件进行校验,如果文件损坏,则日志中会打印错误,Redis启动失败。但如果是AOF文件结尾不完整(机器突然宕机等容易导致文件尾部不完整),且aof-load-truncated参数开启,则日志中会输出警告,Redis忽略掉AOF文件的尾部,启动成功。aof-load-truncated参数默认是开启的。

三.五大数据类型

3.1、String数据类型

概述:String是 redis 最基本的类型,最大能存储 512MB 的数据,String类型是二进制安全的,即可以存储任何数据、比如数字、图片、序列化对象等

1、 SET/GET/APPEND/STRLEN:

PS:APPEND
APPEND key value追加键值,并返回追加后的长度(若键不存在,则相当于创建)

exists home             
#判断该键是否存在,存在返回1,否则返回0

append home "cat"     
#该键并不存在,因此append命令返回当前Value的长度

append home "dog"    
#该键已经存在,因此返回追加后Value的长度

get home               
#通过get命令获取该键,以判断append的结果


redis-cli 
redis 127.0.0.1:6379> exists mykey             #判断该键是否存在,存在返回1,否则返回0。
(integer) 0
redis 127.0.0.1:6379> append mykey "hello"     #该键并不存在,因此append命令返回当前Value的长度。
(integer) 5
redis 127.0.0.1:6379> append mykey " world"    #该键已经存在,因此返回追加后Value的总长度。
(integer) 11
redis 127.0.0.1:6379> get mykey                #通过get命令获取该键,以判断append的结果。
"hello world"
redis 127.0.0.1:6379> set mykey "this is a test"   #通过set命令为键设置新值,并覆盖原有值。
OK
redis 127.0.0.1:6379> get mykey
"this is a test"
redis 127.0.0.1:6379> strlen mykey             #获取指定Key的字符长度。
(integer) 14

2、 INCR/DECR/INCRBY/DECRBY:

INCR key:key值递增加1(key值必须为整数)
DECR key:key值递减1(key值必须为整数)


redis 127.0.0.1:6379> set mykey 20           #设置Key的值为20
OK
redis 127.0.0.1:6379> incr mykey             #该Key的值递增1
(integer) 21
redis 127.0.0.1:6379> decr mykey             #该Key的值递减1
(integer) 20
redis 127.0.0.1:6379> del mykey              #删除已有键。返回1说明删除成功
(integer) 1
redis 127.0.0.1:6379> decr mykey             #对空值执行递减操作,其原值被设定为0,递减后的值为-1
(integer) -1
redis 127.0.0.1:6379> del mykey
(integer) 1
redis 127.0.0.1:6379> incr mykey             #对空值执行递增操作,其原值被设定为0,递增后的值为1
(integer) 1
redis 127 .0.0.1:6379> set mykey hello       #将该键的Value设置为不能转换为整型的普通字符串。
OK
redis 127.0.0.1:6379> incr mykey
(error) ERR value is not an integer or out of range 
redis 127.0.0.1:6379> set mykey 10
OK
redis 127.0.0.1:6379> decrby mykey 5         #减少指定的整数
(integer) 5
redis 127.0.0.1:6379> incrby mykey 10        #增加指定的整数
(integer) 15

3、 GETSET:

GETSET key value:获取key值并返回,同时给key设置新值

redis 127.0.0.1:6379> incr mycounter      #将计数器的值原子性的递增1
(integer) 1
redis 127.0.0.1:6379> getset mycounter 0  #在获取计数器原有值的同时,并将其设置为新值,这两个操作原子性的方式同时完成。
redis 127.0.0.1:6379> get mycounter       #查看设置后的结果。
"0" 

4、SETEX:

setex key seconds value:设置指定key的过期时间为seconds
作用场景:


redis 127.0.0.1:6379> setex mykey 15 "hello"      #设置指定Key的过期时间为15秒。
redis 127.0.0.1:6379> ttl mykey                   #通过tt1命令查看指定Key的剩余存活时间(秒数),0表示已经过期,-1表示永不过期。
(integer) 4
redis 127.0.0.1:6379> get mykey          #在该键的存活期内我们仍然可以获取到它的Value。
"hello"
redis 127.0.0.1:6379> ttl mykey          #该ttl命令的返回值显示,该Key已经过期。
(integer) -2
redis 127.0.0.1:6379> get mykey          #获取已过期的Key将返回nil
(nil)

redis -1 往往代表的是一个上限,表示所有的意思
-2 表示的失效/过期


5、 SETNX:

SETNX key value:不存在键的话执行set操作,存在的话不执行

redis 127 .0.0.1:6379> del mykey              #删除该键,以便于下面的测试验证。
(integer) 1
redis 127.0.0.1:6379> setnx mykey "hello"     #该键并不存在,因此setnx命令执行成功。
(integer) 1
redis 127.0.0.1:6379> setnx mykey "world"     #该键已经存在,因此本次设置没有产生任何效果。
(integer) 0
redis 127 .0.0.1:6379> get mykey              #从结果可以看出,返回的值仍为第一次设置的值。
"hello"

6、 MSET/MGET/MSETNX:

MSET key value [key value …]:批量设置键-值对
MGET key [key …]:批量获取键值对
MSETNX key value [key value …]:批量设置键-值对,都不存在就执行并返回1;只要有一个存在就不执行并返回0

redis 127.0.0.1:6379> mset key1 "hello" key2 "world"    #批量设置了key1和key2两个键。
redis 127.0.0.1:6379> mget key1 key2                    #批量获取了key1和key2两个键的值。
1) "hello"
2) "world"
redis 127.0.0.1:6379> msetnx key3 "zhang" key4 "san"    #批量设置了key3和key4两个键,因为之前他们并不存在,所以msetnx命令执行成功并返回1。
(integer) 1
redis 127.0.0.1:6379> mget key3 key4
1) "zhang"
2) "san"
redis 127.0.0.1:6379> msetnx key3 "hello" key5 "world"   #批量设置了key3和key5两个键,但是key3已经存在,所以msetnx命令执行失败并返回0。
(integer) 0
redis 127.0.0.1:6379> mget key3 key5          #批量获取key3和key5,由于key5没有设置成功,所以返回nil
1) "zhang"
2) (nil)

get 
mget 


3.2、List 数据类型

概述:列表的元素类型为string,按照插入顺序排序,在列表的头部或尾部添加元素

1、 LPUSH/LPUSHX/ LRANGE:

LPUSH key value [value …]在头部(左侧)依次插入列表元素 
LPUSHX key value:键必须存在才能执行,在头部插入元素值并返回并返回列表元素数量
LRANGE key start stop:取从位置索引start到位置索引stop的所有元素(所以以0开始)


redis 127.0.0.1:6379> del mykey 
(integer) 1
redis 127.0.0.1:6379> lpush mykey a b c d
#mykey键并不存在,该命令会创建该键及与其关联的List,之后在将参数中的values从左到右依次插入。
(integer) 4
redis 127.0.0.1:6379> lrange mykey 0 2      #取从位置0开始到位置2结束的3个元素。
1) "d"
2) "c"
3) "b"
redis 127.0.0.1:6379> lrange mykey 0 -1    #取链表中的全部元素,其中0表示第一个元素,-1表示最后一一个元素。
1) "d"
2) "c"
3) "b"
4) "a"
redis 127.0.0.1:6379> lpushx mykey2 e      #mykey2键此时并不存在,因此lpushx命令将不会进行任何操作,其返回值为0。
(integer) 0
redis 127.0.0.1:6379> lrange mykey2 0 -1   #可以看到mykey2没有关联任何List Value。
(empty list or set)
redis 127.0.0.1:6379> lpushx mykey e       #mykey键此时已经存在,所以lpushx命令插入成功,并返回链表中当前元素的数量。
(integer) 5
redis 127.0.0.1:6379> lrange mykey 0 0      #获取该键的List Value的头部元素。
1) "e"

2、LPOP/LLEN:

redis 127.0.0.1:6379> del mykey
(integer) 1
redis 127.0.0.1:6379> lpush mykey a b c d
(integer) 4
redis 127.0.0.1:6379> lpop mykey       #移除并返回mykey键的第一个元素,即从右往左第一个
"d"
redis 127.0.0.1:6379> lpop mykey
"c"
redis 127.0.0.1:6379> llen mykey        #获取表中元素数量,在执行lpop命令两次后,链表头部的两个元素已经被弹出,此时链表中元素的数量是2
(integer) 2

3、LREM/LSET/LINDEX/LTRIM:

LREM key count value:从头部开始删除count个值为value的元素,并返回实际删除数量
LSET key index value:将位置索引为index的元素设置新值value
LINDEX key index:获取索引为index的元素
LTRIM key start stop:仅保留从位置索引start到索引stop的元素


redis 127.0.0.1:6379> del mykey
(integer) 1
redis 127.0.0.1:6379> lpush mykey a b c d a c     #为后面的示例准备测试数据。
(integer) 6
redis 127.0.0.1:6379> lrem mykey 2 a      #从头部(left)向尾部(right)变量链表,删除2个值等于a的元素,返回值为实际删除的数量。
(integer) 2
redis127.0.0.1:6379>lrange mykey 0 -1        #看出删除后链表中的全部元素。
1) "c"
2) "d"
3) "c"
4) "b"
redis 127.0.0.1:6379> lindex mykey 1        #获取索引值为1(头部的第二个元素)的元素值。
"d"
redis 127.0.0.1:6379> lset mykey 1 e        #将索引值为1(头部的第二个元素)的元素值设置为新值e。
OK
redis 127.0.0.1:6379> lindex mykey 1        #查看是否设置成功。
"e"
redis 127.0.0.1:6379> lindex mykey 6        #索引值6超过了链表中元素的数量,该命令返回nil。
(nil)
redis 127.0.0.1:6379> lset mykey 6 hh       #设置的索引值6超过了链表中元素的数量,设置失败,该命令返回错误信息。
(error) ERR index out of range
redis 127 .0.0.1:6379> ltrim mykey 0 2      #仅保留索引值0到2之间的3个元素,注意第0个和第2个元素均被保留。
OK
redis 127.0.0.1:6379> lrange mykey 0 -1     #查看ltrim后的结果。
l) "c"
2) "e"
3) "c"

4、 LINSERT

LINSERT key BEFORE|AFTER pivot value:在元素pivot的前面(做左)或后面(右)插入新元素value

redis 127.0.0.1:6379> del mykey     #删除该键便于后面的测试。
(integer) 1
redis 127.0.0.1:6379> lpush mykey a b c d e    #为后面的示例准备测试数据。
(integer) 1
redis 127.0.0.1:6379> linsert mykey before a a1    #在a的前面插入新元素a1。
(integer) 6。
redis 127.0.0.1:6379> lrange mykey 0 -1            #查看是否插入成功,从结果看已经插入
1) "e"
2) "d"
3) "c"
4) "b"
5) "a1"
6) "a"
redis 127.0.0.1:6379> linsert mykey after e e2    #在e的后面插入新元素e2,从返回结果看已经插入成功。
(integer) 7
redis 127.0.0.1:6379> lindex mykey 1       #再次查看是否插入成功。
"e2"
redis 127.0.0.1:6379> linsert mykey after k a    #在不存在的元素之前或之后插入新元素,linsert 命令操作失败,并返回-1。
(integer) -1
redis 127.0.0.1:6379> linsert mykey1 after a a2   #为不存在的Key插入新元素,linsert命 令操作失败,返回0。.
(integer) 0

5、RPUSH/ RPUSHX/RPOP/RPOPLPUSH:

RPUSH key value [value …]在列表的尾部依次插入value
RPUSHX key value:key必须存在才可执行,将value从尾部插入,并返回所有元素数量
RPOP key:在尾部弹出(移除)一个元素,并返回该元素
RPOPLPUSH source destination:在key1的尾部弹出一个元素并返回,将它插入key2的头部

redis 127.0.0.1:6379> del mykey   #删除该键,以便于后而的测试。
(integer) 1
redis 127.0.0.1:6379> rpush mykey a b c d  #从链表的尾部插入参数中给出的values,插入顺序是从右到左依次插入。
(integer) 4
redis 127.0.0.1:6379> lrange mykey 0 -1    #通过lrange命令可以获悉rpush在插入多值时的插入顺序。

redis 127.0.0.1:6379> rpushx mykey e      #该键已经存在并且包含4个元素,rpushx命令将执行成功,并将元素e插入到链表的尾部。
(integer) 5
redis 127.0.0.1:6379> lindex mykey 4      #通过lindex命令可以看出之前的rpushx命令确实执行成功,因为索引值为4的元素已经是新元素了。
"e"
redis 127.0.0.1:6379> rpushx mykey2 e    #由于mykey2键并不存在,因此rpushx命令不会插入数据,其返回值为0。
(integer) 0
redis 127.0.0.1:6379> lrange mykey 0 -1   #在执行rpoplpush命令前,先看一下 mykey中链表的元素有哪些,注意他们的位置关系。
1) "a"
2) "b"
3) "c"
4) "d"
5) "e"
127. 0.0.1:6379> RPOP mykey       #移除并返回mykey键的第一个元素,从右取
"e"
127.0.0.1:6379> LRANGE mykey 0 -1
1) "a"
2) "b"
3) "c"
4) "d"
redis 127.0.0.1:6379> rpoplpush mykey mykey2   #将mykey的尾部元素e弹出,同时再插入到mykey2的头部(原子性的完成这两步操作)。
"d"
redis 127.0.0.1:6379> lrange mykey 0 -1       #通过lrange命令查看mykey在弹出尾部元素后的结果。
1) "a"
2) "b"
3) "c"
redis 127.0.0.1:6379> lrange mykey2 0 -1     #通过lrange命令查看mykey2在插入元素后的结果。
1) "d"
redis 127.0.0.1:6379> rpoplpush mykey mykey   #将source和destination设为同一键,将mykey中的尾部元素移到其头部。
"c"
redis 127.0.0.1:6379> lrange mykey 0 -1      #查看移动结果。
1) "c"
2) "a"
3) "b"

lrange 


3.3、Hash数据类型 (散列类型)

概述:hash用于存储对象。可以采用这样的命名方式(hash格式):对象类别和ID构成键名,使用字段表示对象的属性,而字段值则存储属性值。
如:存储ID为2的汽车对象。
如果Hash中包含很少的字段,那么该类型的数据也将仅占用很少的磁盘空间。每一个Hash可以存储4294967295个键值对。

1、 HSET/HGET/HDEL/HEXISTS/HLEN/HSETNX:

redis 127.0.0.1:6379> hset myhash field1 "zhang"   #给键值为myhash的键设置字段为field1,值为zhang。
(integer) 1
redis 127.0.0.1:6379> hget myhash field1     #获取键值为myhash,字段为field1的值。
"zhang"
redis 127.0.0.1:6379> hget myhash field2     #myhash键中不存在field2字段,因此返回nil.
(nil)
redis 127.0.0.1:6379> hset myhash field2 "san"  #给myhash添加一个新的字段field2,其值为san。
(integer) 1
redis 127.0.0.1:6379> hlen myhash             #hlen命令获取myhash键的字段数量。
(integer) 2
redis 127.0.0.1:6379> hexists myhash field1   #判断myhash键中是否存在字段名为field1的字段,由于存在,返回值为1。
(integer) 1
redis 127.0.0.1:6379> hdel myhash field1      #删除myhash键中字段名为field1的字段,删除成功返回1。
(integer) 1
redis 127 .0.0.1:6379> hdel myhash field1    #再次删除myhash键中字段名为field1的字段,由于上一条命令已经将其删除,因为没有删除,返回0
(integer) 0
redis 127 .0.0.1:6379> hexists myhash field1  #判断myhash键中是否存在field1字段,由于上一条命令已经将其删除,因为返回0。
(integer) 0
redis 127.0.0.1:6379> hsetnx myhash field1 zhang  #通过hsetnx命令给myhash添加新字段field1,其值为zhang,因为该字段已经被删除,所以该命令添加成功并返回1
(integer) 1
redis 127.0.0.1:6379> hsetnx myhash field1 zhang  #由于myhash的field1字段已经通过上一条命令添加成功,因为本条命令不做任何操作后返回0。
(integer) 0

2、HINCRBY:

redis 127.0.0.1:6379> del myhash     #删除该键,便于后面示例的测试。
(integer) 1
redis 127.0.0.1:6379> hset myhash field 5  #准备测试数据,该myhash的field字段设定值5。
(integer) 1
redis 127.0.0.1:6379> hincrby myhash field 1  #hincrby命令给myhash的field字段的值加1,返回加后的结果。
(integer) 6
redis 127.0.0.1:6379> hincrby myhash field -1  #hincrby命令给myhash的field字段的值加-1,返回加后的结果。
(integer) 5
redis 127.0.0.1:6379> hincrby myhash field -10  #hincrby命令给myhash的field字段的值加-10,返回加后的结果。
(integer) -5

3、 HGETALL/HKEYS/HVALS/HMGET /HMSET:

redis 127.0.0.1:6379> del myhash   #删除该键,便于后面示例测试。
(integer) 1
redis 127.0.0.1:6379> hmset myhash field1 "hello" field2 "world"
#hmset命令为该键myhash,一次性设置多个字段,分别是field1="hello",field2="world"。
OK
redis 127.0.0.1:6379> hmget myhash field1 field2 field3
#hmget命令获取myhash键的多个字段,其中field3并不存在,因为在返回结果中与该字段对应的值为nil。
1) "hello"
2) "world"
3) (nil)
redis 127.0.0.1:6379> hgetall myhash   #hgetall命令返回myhash键的所有字段及其值,从结果中可以看出,他们是逐对列出的。
1) "field1"
2) "hello"
3) "field2"
4) "world"
redis 127.0.0.1:6379> hkeys myhash    #hkeys命令仅获取myhash键中所有字段的名字。
1) "field1"
2) "field2"
redis 127.0.0.1:6379> hvals myhash    #hvals命令仅获取myhash键中所有字段的值。
1) "hello"
2) "world" 

3.4、set数据类型(无序集合)

概述:无序集合,元素类型为string类型,元素具有唯一性, 不允许存在重复的成员。多个集合类型之间可以进行并集、交集和差集运算

应用范围:
1、可以使用Redis的Set数据类型跟踪一些唯一性数据,比如访问某一博客的唯一IP地址信息。对于此场景,我们仅需在每次访问该博客时将访问者的IP存入Redis中,Set数据类型会自动保证IP地址的唯一性。
2、充分利用Set类型的服务端聚合操作方便、高效的特性,可以用于维护数据对象之间的关联关系。比如所有购买某–电子设备的客户ID被存储在一个指定的Set中,而购买另外一种电子产品的客户ID被存储在另外一个Set中,如果此时我们想获取有哪些客户同时购买了这两种商品时,Set的intersections 命令就可以充分发挥它的方便和效率的优势了。

1、SADD/ SMEMBERS/ SCARD/ SISMEMBER:

sdd/smembers/scard/sismembers
redis 127.0.0.1:6379> sadd myset a b c   #插入测试数据,由于该键myset之前并不存在,因此参数中的三个成员都被正常插入。
(integer) 3
redis 127.0.0.1:6379> sadd myset a d e   #由于参数中的a在myset中已经存在,因此本次操作仅仅插入了d和e两个新成员。
(integer) 2
redis 127.0.0.1:6379> sismember myset a   #判断a是否已经存在,返回值为1表示存在。
(integer) 1
redis 127.0.0.1:6379> sismember myset f   #判断f是否已经存在,返回值为0表示不存在。
(integer) 0
redis 127.0.0.1:6379> smembers myset     #通过smembers命令查看插入的结果,从结果可以看出,输出的顺序和插入顺序无关。
1) "c"
2) "b"
3) "a"
4) "d"
5) "e"
redis 127.0.0.1:6379> scard myset        #获取Set集合中元素的数量
(integer) 5

2、SPOP/SREM/ SRANDMEMBER/ SMOVE

redis 127.0.0.1:6379> del myset            #删除该键,便于后而的测试。
(integer) 1
redis 127.0.0.1:6379> sadd myset a b c d   #为后面的示例准备测试数据。
(integer) 4
redis 127.0.0.1:6379> smembers myset       #查看Set中成员的位置。
1) "d"
2) "a"
3) "b"
4) "c"
redis 127.0.0.1: 6379> srandmember myset   #从结果可以看出,该命令确实是随机的返回了某一成员
"c"
redis 127.0.0.1:6379> spop myset           #随机的移除并返回Set中的某一成员。
"d"
redis 127.0.0.1:6379> smembers myset       #查看移出后set的成员信息。
1) "a"
2) "b"
3) "c"
redis 127.0.0.1:6379> srem myset a d f     #从myseet中移出a、d和f三个成员,其中f并不存在,因此只有a和d两个成员被移出,返回为2。
(integer) 1
redis 127.0.0.1:6379> smembers myset      #查看移出后的输出结果。
1) "b"
2) "c"
redis 127.0.0.1:6379> sadd myset a b      #为后面的smove命令准备数据。
(integer) 1
redis 127.0.0.1:6379> sadd myset2 c d
(integer) 2
redis 127.0.0.1:6379> smove myset myset2 a    #将a从myset移到myset2,从结果可以看出移动成功。
(integer) 1
redis 127.0.0.1:6379> smove myset myset2 a     #再次将a从myset移到myset2,由于此时a已经不是myset的成员了,因此移动失败并返回0。
(integer) 0
redis 127.0.0.1:6379> smembers myset         #分别查看myset和myset2的成员,确认移动是否真的成功。
1) "b"
2) "c"
redis 127.0.0.1:6379> smembers myset2
1) "a"
2) "d"
3) "c"

3.5、Sorted Set数据类型 (zset、有序集合)

概述:
a、有序集合,元素类型为Sting,元素具有唯一性, 不能重复。
b、每个元素都会关联–个double类型的分数score(表示权重),可以通过权重的大小排序,元素的score可以相同。

应用范围:

可以用于一个大型在线游戏的积分排行榜。每当玩家的分数发生变化时,可以执行ZADD命 令更新玩家的分数,此后再通过ZRANGE命令获取积分TOP10的用户信息。当然我们也可以利用ZRANK命令通过username来获取玩家的排行信息。最后我们将组合使用ZRANGE和ZRANK命令快速的获取和某个玩家积分相近的其他用户的信息。
Sorted-Set类型还可用于构建索引数据。

1、ZADD/ ZCARD/ ZCOUNT / ZREM/ ZINCRBY/ ZSCORE/ ZRANGE/ ZRANK:

redis 127.0.0.1:6379> zadd myzset 1 "one"    #添加一个分数为1的成员。
(integer) 1
redis 127.0.0.1:6379> zadd myzset 2 "two" 3 "three"   #添加两个分数分别是2和3的两个成员。
(integer) 2
redis 127.0.0.1:6379> zrange myzset 0 -1 WITHSCORES   #0表示第一个成员,-1表示最后一个成员。WITHSCORES选 项表示返回的结果中包含每个成员及其分数,否则只返回成员。
1) "one"
2) "1"
3) "two"
4) "2"
5) "three"
6) "3"
redis 127.0.0.1:6379> zrank myzset one   #获取成员one在Sorted-Set中的位置索引值。0表示第一个位置。
(integer) 0
redis 127.0.0.1:6379> zrank myzset four   #成员four并不存在,因此返回nil。
(nil)
redis 127.0.0.1:6379> zcard myzset        #获取myzset键中成员的数量。
(integer) 3
redis 127.0.0.1:6379> zcount myzset 1 2    #zcount key min max,分数满足表达式1 <= score <= 2的成员的数量。
(integer) 2
redis 127.0.0.1:6379> zrem myzset one two   #删除成员one和two,返回实际删除成员的数量
(integer) 2
redis 127.0.0.1:6379> zcard myzset           #查看是否删除成功。
(integer) 1
redis 127.0.0.1:6379> zscore myzset three    #获取成员three的分数。返回值是字符串形式。
"3"
redis 127.0.0.1:6379> zscore myzset two      #由于成员two已经被删除,所以该命令返回nil。
(nil)
redis 127 .0.0.1:6379> zincrby myzset 2 one   #成员one不存在,zincrby命令将添加该成员并假设其初始分数为0,将成员one的分数增加2,并返回该成员更新后的分数。
"2"
redis 127.0.0.1:6379> zincrby myzset -1 one    #将成员one的分数增加-1,并返回该成员更新后的分数。
"1"
redis 127.0.0.1:6379> zrange myzset 0 -1 WITHSCORES   #查看在更新了成员的分数后是否正确。
1) "one"
2) "1'
3) "three"
4) "3"

2、Z RANGE BY SCORE/ Z REM RANGE BY RANK/ Z REM RANGE BY SCORE

redis 127.0.0.1:6379> del myzset
(integer) 1
redis 127.0.0.1:6379> zadd myzset 1 one 2 two 3 three 4 four
(integer) 4
redis 127.0.0.1:6379> zrangebyscore myzset 1 2     #zrangebyscore key min max,获取分数满足表达式1 <= score <= 2的成员。
1) "one"
2) "two"
redis 127.0.0.1:6379> zrangebyscore myzset (1 2    #获取分数满足表达式1 < score <= 2的成员。
1) "two"
redis 127.0.0.1:6379> zrangebyscore myzset -inf +inf limit 2 3   
 #-inf表示第一个成员(位置索引值最低的,即0),+inf表示最后一个成员(位置索引值最高的),limit后面的参数用于限制返回成员的值,2表示从位置索引等于2的成员开始,取后而3个成员。
1) "three"
2) "four"
redis 127.0.0.1:6379> zrangebyscore myzset 0 4 limit 2 3
1) "three"
2) "four"
redis 127.0.0.1:6379> zremrange byscore myzset 1 2    #删除分数满足表达式1 <= score <= 2的成员,并返回实际删除的数量。
(integer) 2
redis 127.0.0.1:6379> zrange myzset 0 -1       #查看一下.上面的删除是否成功。
1) "three"
2) ”four"
redis 127.0.0.1:6379> zremrangebyrank myzset 0 1    #删除位置索引满足表达式0 <= rank <= 1的成员。
(integer) 2
redis 127 .0.0.1:6379> zcard myzset     #查看上--条命令是否删除成功。
(integer) 0

3、ZREVRANGE/ ZREVRANGEBYSCORE/ ZREVRANK:

redis 127.0.0.1:6379> del myzset     #为后面的示例准备测试数据。
(integer) 1
redis 127.0.0.1:6379> zadd myzset 1 one 2 two 3 three 4 four
(integer) 4
redis 127.0.0.1:6379> zrevrangemyzset 0 -1 WITHSCORES     #以位置索引从高到低的方式获取并返回此区间内的成员。
1) "four"
2) "4"
3) "three"
4) "3"
5) "two"
6) "2"
7) "one"
8) "1"
redis 127.0.0.1:6379> zrevrange myzset 1 3     #由于是从高到低的排序,所以位置等于0的是four,1是three,并以此类推。
1) "three"
2) "two"
3) "one"
redis 127.0.0.1:6379> zrevrank myzset one    #由于是从高到低的排序,所以one的位置/索引下标是3。
(integer) 3
redis 127.0.0.1:6379> zrevrank myzset four    #由于是从高到低的排序,所以four的位置是0。
(integer) 0
redis 127.0.0.1:6379> z rev range by score myzset 3 0    # zrevrangebyscore key max min,获取分数满足表达式3 >= score >= 0的成员,并以从高到底的顺序输出。
1) "three"
2) "two"
3) "one"
redis 127.0.0.1:6379> zrevrangebyscore myzset 4 0 limit 1 2    #zrevrangebyscore命令支持limit选项,其含义等同于zrangebyscore中的该选项,只是在计算位置时按照相反的顺序计算和获取。
1) "three"
2) "two"
192.168.80.10:6379> zrevrangebyscore myzset +inf -inf limit 1 3
1) "three"
2) "two"
3) "one"



这篇关于redis持久化及五大数据类型的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程