redis学习笔记

发布于 17 天前  33 次阅读


Nosql

为什么要用NoSQL

用户的个人信息,社交网络,地理位置。用户自己产生的数据,用户日志等等爆发式增长! 这时候我们就需要使用NoSQL数据库的, Nosql可以很好的处理以上的情况!

什么是NoSQL

NoSQL

NoSQL = Not Only SQL

泛指非关系型数据库的,随着web2.0互联网的诞生!传统的关系型数据库很难对付web2.0时代!尤其是超大规模的高并发的社区!暴露出来很多难以克服的问题, NoSQL在当今大数据环境下发展的十分迅速, Redis是发展最快的,而且是我们当下必须要掌握的一个技术!

很多的数据类型用户的个人信息,社交网络,地理位置。这些数据类型的存储不需要一个固定的格式!不需要多月的操作就可以横向扩展的! Map<String,Object>

NoSQL特点

解耦!

  1. 方便扩展(数据之间没有关系,很好扩展! )

  2. 大数据量高性能( Redis -秒写8万次,读取11万次)

  3. 数据类型多样性(不需要事先设计数据库!随取随用,如果是数据量十分大的表,很多人就无法设计了!)

  4. 传统的RDBMS和NoSQL

    传统的 RDMBS
    - 结构化组织
    - SQL
    - 数据和关系都存在单独的表中
    - 操作,数据定义语言
    - 严格的一直性
    - 基础的事务
    - 。。。。。。
    
    NoSQL
    - 不仅仅是数据
    - 没有固定的查询语言
    - 键值对存储,列存储,文档存储,图形数据库(社交关系)
    - 最终一致性
    - CAP定理和BASE (异地多活)
    - 高性能,高可用,高可扩
    - 。。。。。。
    

了解:3V+3高

大数据时代的3V :主要是描述问题的

  1. 海量Volume
  2. 多样Variety
  3. 实时Velocity

大数据时代的3高:主要是对程序的要求 1.高并发 2.高可拓 3.高性能

NoSQL的四大分类

kv键值对:

  • 新浪:redis
  • 美团:redis+Tair
  • 阿里、百度:redis+memechache

文档型数据库(bson格式(和json一样)):

  • MongoDB

    • MongoDB是一个基于分布式文件存储的数据库,c++编写的,主要用来处理大量的文档
    • MongoDB是一个介于关系型数据库和非关系型数据库中间的产品!MongoDB是非关系型数据库中功能最丰富,最像关系型数据库的
  • ConthDB

列存储数据库

  • HBase
  • 分布式文件系统

图关系数据库

  • 不是用来存图片的,存放的是关系,比如:朋友圈社交网络,广告推荐!
  • Neo4j,infoGrid;

 

四者对比

image-20201226000828090

Redis入门

概述

redis是什么

Redis ( Remote Dictionary Server ) ,即远程字典服务,是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。redis学习笔记

区别的是redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步。

是当下最热门的免费和开源的技术之一!也被人称之为结构化数据库

redis能干嘛?

  1. 内存存储、持久化(内存是断电即失,所以说持久化很重要(rdb、rof))
  2. 效率高,可用于高速缓存
  3. 发布订阅系统
  4. 地图信息分析
  5. 计数器、计时器(浏览量!)
  6. ......

特性

  1. 多样的数据类型
  2. 持久化
  3. 集群
  4. 事务

.....

ps:windows在Github下载,不过Redis推荐还是在linux服务器上搭建

windows下安装

  1. 下载安装包:https://github.com/redis/redis/releases

  2. 下载完毕得到压缩包后解压缩(redis很小):

    image-20210412190430754

  3. 开启redis,双击redis-server.exe即可

    image-20201226004116789

  4. 使用redis客户端来连接redis

    image-20201226004441907

 

Linux下安装

  1. 去官网http://www.redis.cn/下载 或者 wget http://download.redis.io/releases/redis-6.0.6.tar.gz

  2. 通过ftp传到服务器上 解压安装包 tar -zxvf redis-6.0.6.tar.gz

  3. 确认安装成功

    image-20201226151031009

  4. 基本环境安装

    [root@iZ8vb6wledc1x148ynsj65Z redis-6.0.6]# yum install gcc-c++
    [root@iZ8vb6wledc1x148ynsj65Z redis-6.0.6]# make
    [root@iZ8vb6wledc1x148ynsj65Z redis-6.0.6]# make install
    

    image-20201226150732612

  5. redis 默认安装路径/usr/local/binimage-20210412190511082

  6. 将redis配置文件拷贝到我们当前目录下image-20201226152036913

  7. redis默认不是后天启动的,修改配置文件image-20201226152316385

  8. 启动redis 通过指定的配置文件启动image-20201226152434345

  9. 使用redis-cli连接

    image-20201226152539267

  10. 查看redis的进程是否开启image-20201226152707974

  11. 如果关闭redis服务 shutdown

    image-20201226152857770

性能测试

redis-benchmark是一一个压力测试工具! 官方自带的性能测试工具! redis-benchmark命令参数

图来自菜鸟教程:

image-20201226153204285

我们来简单测试一下:

# 测试 100个并发连接 10000请求
redis-benchmark -h localhost -p 6379 -c 100 -n 100000

image-20201226153611419

image-20201226153748296

基础知识

redis默认有16个数据库

image-20210412191147967

默认使用第0个

可以使用select进行切换

127.0.0.1:6379> select 5 #切换数据库
OK
127.0.0.1:6379[5]> DBSIZE # DB大小
(integer) 0

image-20201226154532591

127.0.0.1:6379[5]> KEYS * #获取数据库所有的key
1) "name"

清空数据库 flushdb

清空所有数据库 flushall

127.0.0.1:6379[5]> FLUSHDB
OK
127.0.0.1:6379[5]> KEYS *
(empty array)

redis 在6.0版本前都是单线程的,6.0之后支持多线程

五大数据类型

官方文档

Redis 是一个开源(BSD许可)的,内存中的数据结构存储系统,它可以用作数据库、缓存和消息中间件。 它支持多种类型的数据结构,如 字符串(strings)散列(hashes)列表(lists)集合(sets)有序集合(sorted sets) 与范围查询, bitmapshyperloglogs地理空间(geospatial) 索引半径查询。 Redis 内置了 复制(replication)LUA脚本(Lua scripting)LRU驱动事件(LRU eviction)事务(transactions) 和不同级别的 磁盘持久化(persistence), 并通过 Redis哨兵(Sentinel)和自动 分区(Cluster)提供高可用性(high availability)。

Redis-key

127.0.0.1:6379> keys * #查看所有的key
(empty array)
127.0.0.1:6379> set name geju 	#set key
OK
127.0.0.1:6379> set age 1
OK
127.0.0.1:6379> EXISTS name #判断当前key是否存在
(integer) 1
127.0.0.1:6379> EXISTS name1
(integer) 0
127.0.0.1:6379> move name 1 #移除当前的key
(integer) 1
127.0.0.1:6379> KEYS *
1) "age"
127.0.0.1:6379> set name geju
OK
127.0.0.1:6379> 
127.0.0.1:6379> get name 
"geju"
127.0.0.1:6379> EXPIRE name 10 #设置过期时间 单位是秒
(integer) 1
127.0.0.1:6379> ttl name #查看当前key的剩余时间
(integer) 3
127.0.0.1:6379> ttl name
(integer) 0
127.0.0.1:6379> ttl name
(integer) -2
127.0.0.1:6379> get name
(nil)
127.0.0.1:6379> type name #查看当前key的类型
string
127.0.0.1:6379> type age
string

String(字符串)

127.0.0.1:6379> set key1 v1 #设置值
OK
127.0.0.1:6379> get key1 #获得值
"v1"
127.0.0.1:6379> keys * #获得所有的key
1) "key1"
127.0.0.1:6379> EXISTS key1  #判断某个key是否存在
(integer) 1
127.0.0.1:6379> APPEND key1 hello #在某个key之前追加字符串
(integer) 7
127.0.0.1:6379> get key1 
"v1hello"
127.0.0.1:6379> strlen key1 #获取字符串的长度
(integer) 7
127.0.0.1:6379> APPEND key1 ",geju"
(integer) 12
127.0.0.1:6379> get key1
"v1hello,geju"

- - - - - - - - - - -
127.0.0.1:6379> set views 0
OK
127.0.0.1:6379> get views
"0"
127.0.0.1:6379> incr views #自增1
(integer) 1
127.0.0.1:6379> incr views
(integer) 2
127.0.0.1:6379> get views
"2"
127.0.0.1:6379> decr views #自减1
(integer) 1
127.0.0.1:6379> get views
"1"
127.0.0.1:6379> decr views
(integer) 0
127.0.0.1:6379> decr views
(integer) -1
127.0.0.1:6379> get views
"-1"
127.0.0.1:6379> INCRBY views 10 #设置步长 指定增量
(integer) 9
127.0.0.1:6379> 

- - - - - - - - - - -

127.0.0.1:6379> set key1 "hello,geju"
OK
127.0.0.1:6379> get key1
"hello,geju"
127.0.0.1:6379> GETRANGE key1 0 3 # 截取字符串[0,3]
"hell"
127.0.0.1:6379> GETRANGE key1 0 -1 #获取全部字符串
"hello,geju"

- - - - - - - - - - -
 
#替换!
127.0.0.1:6379> set key2 abcdefg 
OK
127.0.0.1:6379> get key2
"abcdefg"
127.0.0.1:6379> SETRANGE key2 1 xx # 替换指定位置开始的字符串!
(integer) 7
127.0.0.1:6379> get key2
"axxdefg"
- - - - - - - - - - -
# setex(set with expire) 设置过期时间
# stnx (set if not exist) 如果不存在 便设置


127.0.0.1:6379> setex key3 30 "hello" #	设置key3的值为hello,并使其在30s后过期
OK
127.0.0.1:6379> ttl key3
127.0.0.1:6379> setnx mykey redis #如果mykey不存在 设置mykey的值 
(integer) 1
127.0.0.1:6379> keys *
1) "key2"
2) "mykey"
127.0.0.1:6379> setnx mykey redis #mykey已经存在 设置失败
(integer) 0

- - - - - - - - - - -
# mset 批量设置键值对
# mget 批量获取

127.0.0.1:6379> mset k1 v1 k2 v2 k3 v3 #批量设置值
OK
127.0.0.1:6379> keys *
1) "key2"
2) "k3"
3) "k1"
4) "mykey"
5) "k2"
127.0.0.1:6379> mget k1 k2 k3 #批量获取值
1) "v1"
2) "v2"
3) "v3"
127.0.0.1:6379> msetnx k1 v1 k4 v4 #批量设置(不存在时),原子性操作,要么一起成功 要么一起失败
(integer) 0
127.0.0.1:6379> get key4
(nil)

- - - - - - - - - - -
# 对象
set user:1 {name:zhangsan,age:3}
# 这里的key是一个巧妙的设计 user:{id}:{filed},如此的设计在redis中是完全OK的
127.0.0.1:6379> mset user:1:name zhangsan user:1:age 2
OK

127.0.0.1:6379> mget user:1:name user:1:age
1) "zhangsan"
2) "2"

- - - - - - - - - - -
getset #先get再set

127.0.0.1:6379> getset db redis #如果值不存在 返回nil 再设置值
(nil)
127.0.0.1:6379> getset db mogondb # 如果值存在,获取原来的值,并执行更新操作
"redis"
127.0.0.1:6379> get db
"mogondb"

String类似的使用场景: value除了是我们的字符串还可以是我们的数字!

  • 计数器
  • 统计多单位的数量
  • 粉丝数
  • 对象缓存存储!

 

List(列表)

基础的数据类型,列表

在redis里面, 我们可以把list玩成,栈、队列、阻塞队列!

所有list的命令都是L开头的

- - - - - - - - - - -
127.0.0.1:6379> LPUSH list one #将一个值或多个值,插入到列表的头部(左)
(integer) 1
127.0.0.1:6379> LPUSH list two
(integer) 2
127.0.0.1:6379> LPUSH list three
(integer) 3
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
127.0.0.1:6379> LRANGE list 0 1
1) "three"
2) "two"
127.0.0.1:6379> RPUSH list right
(integer) 4
127.0.0.1:6379> LRANGE list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
 
- - - - - - - - - - -
LPOP
RPOP
127.0.0.1:6379> Lpop 1ist # 移除list的第一一个元素
"three"
127.0.0.1:6379> Rpop list # 移除list的最后一个元素
"righr"
127.0.0.1:6379> LRANGE list 0 -1
1) "two"
2) "one"
Lindex
127.0. 0.1:6379> LRANGE list 0 -1
1) " two"
2) "one"
127.0.0.1:6379> lindex list 1 # 通过下标获得ist中的某一个值!
"one"
127.0.0.1:6379> lindex 1ist 0 
'two"

- - - - - - - - - - -
Lindex
 
127.0.0.1:6379> Lrange list 0 -1
1) "three"
2) "two"
3) "one"
4) "right"
127.0.0.1:6379> lindex list 1 #通过下标获取list中的值
"two"
127.0.0.1:6379> lindex list 0
"three"

- - - - - - - - - - -
Llen
127.0.0.1:6379> Lpush 1ist one
(integer) 1
127.0.0.1:6379> Lpush 1ist two
(integer) 2
127.0.0.1:6379> Lpush 1ist three
(integer) 3
127.0.0.1:6379> Llen list # 返回列表的长度
(integer) 3
- - - - - - - - - - -
Lrem
127.0.0.1:6379> LRANGE 1ist 0 -1
1) "three'
2) "three"
3) "two"
4) "one"
127.0.0.1:6379> 1rem list 1 one # 移除list集合中指定个数的value,精确匹配
(integer) 1
127.0.0.1:6379> LRANGE 1ist 0 -1
1) "three" 
2) "three"
3) "two"
127.0.0.1:6379> 1rem list 1 three
(integer) 1
I
127.0.0.1:6379> LRANGE 1ist 0 -1
1) "three'
2) "two"
127.0.0.1:6379> Lpush list three
(integer) 3 
127.0.0.1:6379> 1rem list 2 three
(integer) 2
127.0.0.1:6379> LRANGE 1ist 0 -1
1) "two"

- - - - - - - - - - -
ltrim 截断 

127.0.0.1:6379> rpush mylist "hello"
(integer) 1
127.0.0.1:6379> rpush mylist "hello1"
(integer) 2
127.0.0.1:6379> rpush mylist "hello2"
(integer) 3
127.0.0.1:6379> rpush mylist "hello3"
(integer) 4
127.0.0.1:6379> lrange mylist 0 -1
1) "hello"
2) "hello1"
3) "hello2"
4) "hello3"
127.0.0.1:6379> ltrim mylist 1 2 #通过下标截取指定的长度,这个list已经被改变了,截断了只剩下截取的元素!
OK
127.0.0.1:6379> lrange mylist 0 -1
1) "hello1"
2) "hello2"

- - - - - - - - - - -
rpoplpush #移除列表的最后一个元素,将他移动到新的列表中!

127.0.0.1:6379> rpush mylist "hello"
(integer) 1
127.0.0.1:6379> rpush mylist "hello1"
(integer) 2
127.0.0.1:6379> rpush mylist "hello2"
(integer) 3
127.0.0.1:6379> rpoplpush mylist myotherlist  #移除列表的最后一个元素,将他移动到新的列表中!
"hello2"
127.0.0.1:6379> lrange mylist 0 -1  #查看原来的列表
1) "hello"
2) "hello1"
127.0.0.1:6379> lrange myotherlist 0 -1  #查看目标列表中,确实存在改值!
1) "hello2"
- - - - - - - - - - -
1set #将列表中指定下标的值替换为另外一个值,更新操作
127.0.0.1:6379> EXISTS 1ist #判断这个列表是否存在
(integer) 0
127.0.0.1:6379> 1set list 0 item #如果不存在列表我们去 更新就会报错
(error) ERR no such key
127.0.0.1:6379> 1push list value1
(integer) 1
127.0.0.1 :6379> LRANGE 1ist 0 0
1)
"value1"
127.0.0.1:6379> lset list 0 item #如果存在,更新当前下标的值
OK
127.0.0.1:6379> LRANGE list 0 0
1)
"i tem"
127.0.0.1:6379> 1set 1ist 1 other #如果不存在,则会报错!
(error) ERR index out of range


set(集合)

set中的值是不能重读的

- - - - - - - - - - -
127.0.0.1:6379> sadd myset "hello" #set集合中添加值
(integer) 1
127.0.0.1:6379> sadd myset "geju"
(integer) 1
127.0.0.1:6379> sadd myset "nb"
(integer) 1
127.0.0.1:6379> smembers myset #查看指定的set的所有值
1) "geju"
2) "hello"
3) "nb"
127.0.0.1:6379> sismember myset hello #判断某一个值是不是在set集合中
(integer) 1
127.0.0.1:6379> sismember myset world
(integer) 0
- - - - - - - - - - -

set无序不重复集合。抽随机!
127.0.0.1:6379> SMEMBERS myset
1) "1ovekuangshen2"
2) "1ovekuangshen"
3) "kuangshen"
127.0.0.1:6379> SRANDMEMBER myset # 随机抽选出一一个元素
"kuangshen"
127.0.0.1:6379> SRANDMEMBER myset
"kuangshen"
127.0.0.1 :6379> SRANDMEMBER myset
"kuangshen"
127.0.0.1:6379> SRANDMEMBER myset
"kuangshen"
127.0.0. 1:6379> SRANDMEMBER myset 2 # 随机抽选出指定个数的元素
1) "lovekuangshen "
2) "1 ovekuangshen2"
127.0.0.1:6379> SRANDMEMBER myset 2
1) "1 ovekuangshen"
2) "lovekuangshen2"
127.0.0.1:6379> SRANDMEMBER myset
#随机抽选出一个元素
"lovekuangshen2'
- - - - - - - - - - -
删除定的key,随机删除key!
127.0.0.1:6379> SMEMBERS myset
1) "lovekuangshen2"
2) "lovekuangshen
3) " kuangshen
127.0.0.1:6379> spop myset # 随机删除一- 些set集合中的元素!
"lovekuangshen2"
127.0.0.1:6379> spop myset
"1 ovekuangshen"
127.0.0.1:6379> SMEMBERS myset
1) "kuangshen"

- - - - - - - - - - -
数字集合类: 
-差集SDIFF
-交集
并集
127.0.0.1:6379> SDIFF key1 key2 #差集
1) "b"
2) "a"
127.0.0.1:6379> SINTER key1 key2 #交集 共同好友就可以这样实现
1) "c"
127.0.0.1:6379> SUNION key1 key2 			#并集
1) "b"
2) "c"
3) "e"
4) "a"
5) "d"

Hash(哈希)

Map集合,key-Map集合,本质和String没有太大区别

127.0.0.1:6379> hset myhash field1 geju #set一个key-value
(integer) 1
127.0.0.1:6379> hget myhash field1 #获取一个字段值
"geju"
127.0.0.1:6379> hmset myhash field1 hello field2 world   #设置多个k-v对
OK
127.0.0.1:6379> hmget myhash field1 field2 #获取多个k-v
1) "hello"
2) "world"
127.0.0.1:6379> hgetall myhash #获取所有k-v
1) "field1"
2) "hello"
3) "field2"
4) "world"
127.0.0.1:6379> hdel myhash field1 #删除指定字段
(integer) 1
127.0.0.1:6379> hgetall myhash
1) "field2"
2) "world"
- - - - - - - - - - -
hlen #获取hash的长度
127.0.0.1:6379> hlen myhash
(integer) 1
 
- - - - - - - - - - -
127.0.0.1:6379> HEXISTS myhash field1
(integer) 0
127.0.0.1:6379> HEXISTS myhash field2 #判断字段是否存在
(integer) 1

- - - - - - - - - - -
127.0.0.1:6379> hkeys myhash # 只获得所有field
1) "field2"
127.0.0.1:6379> hvals myhash # 只获得所有的value
1) "world"
- - - - - - - - - - -
127.0.0.1:6379> HINCRBY myhash field3 1 #hincrby 自增 hde
(integer) 1
127.0.0.1:6379> HINCRBY myhash field3 -1
(integer) 0
127.0.0.1:6379> hsetnx myhash field4 hello  # 如不不存在
(integer) 1
127.0.0.1:6379> hsetnx myhash field4 hello
(integer) 0

zset(有序集合)

127.0.0.1:6379> zadd myset 1 one  #设置一个值
(integer) 1
127.0.0.1:6379> zadd myset 2 two 3 three  #设置多个值
(integer) 2
127.0.0.1:6379> zrange myset 0 -1  #遍历
1) "one"
2) "two"
3) "three"
- - - - - - - - - - -
127.0.0.1:6379> zadd salary 2500 xiaohong
(integer) 1
127.0.0.1:6379> zadd salary 5000 zhangsan
(integer) 1
127.0.0.1:6379> zadd salary 500 geju
(integer) 1
127.0.0.1:6379> zrange salary 0 -1  
1) "geju"
2) "xiaohong"
3) "zhangsan"
127.0.0.1:6379> zrangebyscore salary -inf +inf #通过集合的scores进行排序 从正无穷到负无穷
1) "geju"
2) "xiaohong"
3) "zhangsan"
127.0.0.1:6379> zrangebyscore salary -inf +inf withscores #通过集合的scores进行排序 从正无穷到负无穷 并带上scores
1) "geju"
2) "500"
3) "xiaohong"
4) "2500"
5) "zhangsan"
6) "5000"
127.0.0.1:6379> ZREVRANGE salary 0 -1 withscores #从大到小排序
1) "zhangsan"
2) "5000"
3) "xiaohong"
4) "2500"
5) "geju"
6) "500"

- - - - - - - - - - - 
#移除rem中的元素
127.0.0.1:6379> zrange salary 0 -1
1) " kaungshen'
2) "xi aohong"
3) " zhangsan
127.0.0.1:6379> zrem salary xi aohong #移除有序集合中的指定元素
(integer) 1
127.0.0.1:6379> zrange salary 0 -1
1) "kaungshen "
2) " zhangsan"
127.0.0.1:6379> zcard salary # 获取有序集合中的个数
(integer) 2
- - - - - - - - - - - 
127.0.0.1:6379> zcount myset 1 2 #获取指定区间的成员数量
(integer) 2
127.0.0.1:6379> zcount myset 1 3
(integer) 3
- - - - - - - - - - - 

三种特殊的数据类型

geospatial (地理位置)

朋友的定位,附近的人,打车地理定位

redis的Geo 在redis3.2版本推出 这个功能可以推算出地理位置的信息,两地之间的距离,附近的人

可以查询一些测试数据http://www.toolzl.com/tools/gps.html

只有六个命令

image-20201228152218263

geoadd

# getadd 添加地理位置
# 规则:两极无法直接添加,我们一般会下载城市数据,直接通过程序导入
# 参数 key 值(经度 纬度 名称)
#有效的经度从-180度到180度。
#有效的纬度从-85. 05112878度到85.05112878度。
#当坐标位置超出.上述指定范围时,该命令将会返回一个错误。
# 127.0.0.1:6379> geoadd china:city 39.90 116. 40 beijin
(error) ERR invalid 1ongitude,latitude pair 39. 900000,116.400000
 127.0.0.1:6379> geoadd china:city 104.06735 30.659462 sichuan
(integer) 1
127.0.0.1:6379> geoadd china:city 121.472641 31.231707 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.504959 29.533155 chongqing
(integer) 1
127.0.0.1:6379> geoadd china:city 114.085945 22.547001 shenzhen
(integer) 1

geopos

获取当前定位 一定是一个坐标值

127.0.0.1:6379> geopos china:city sichuan #获取指定城市的经纬度
1) 1) "104.06735211610794067"
   2) "30.65946118872339099"
127.0.0.1:6379> geopos china:city chongqing
1) 1) "106.50495976209640503"
   2) "29.53315530684997015"

GEODIST

两人之间的距离

单位:

  • m 表示单位为米。
  • km 表示单位为千米。
  • mi 表示单位为英里。
  • ft 表示单位为英尺。
127.0.0.1:6379> geodist china:city sichuan  chongqing
"265919.2386"
127.0.0.1:6379> geodist china:city sichuan chongqing km #四川到重庆的直线距离 比指定单位为km
"265.9192"

georadius 以给定的经纬度为中心,找出某一元素

我附近的人(获得所有附近的人的地址)通过半径来查询

127.0.0.1:6379> georadius china:city  106.40 29.51 1000 km
1) "chongqing"
2) "sichuan"
127.0.0.1:6379> georadius china:city  106.40 29.51 500 km #寻找该经纬度 500km 半径内的记录的点
1) "chongqing"
2) "sichuan"
127.0.0.1:6379> georadius china:city  106.40 29.51 500 km withdist #寻找该经纬度 500km 半径内的记录的点 并输出离该经纬度距离
1) 1) "chongqing"
   2) "10.4800"
2) 1) "sichuan"
   2) "258.3422"
127.0.0.1:6379> georadius china:city  106.40 29.51 500 km withcoord #寻找该经纬度 500km 半径内的记录的点 并输出该城市的经纬度
1) 1) "chongqing"
   2) 1) "106.50495976209640503"
      2) "29.53315530684997015"
2) 1) "sichuan"
   2) 1) "104.06735211610794067"
      2) "30.65946118872339099"
127.0.0.1:6379> georadius china:city  106.40 29.51 500 km withcoord withdist count 2 #寻找该经纬度 500km 半径内的记录的点 并限定范围
1) 1) "chongqing"
   2) "10.4800"
   3) 1) "106.50495976209640503"
      2) "29.53315530684997015"
2) 1) "sichuan"
   2) "258.3422"
   3) 1) "104.06735211610794067"
      2) "30.65946118872339099"

GEORADIUSBYMEMBER

可以找出位于指定范围内的元素, 但是 GEORADIUSBYMEMBER 的中心点是由给定的位置元素决定的

参数同GEORADIUS

127.0.0.1:6379> georadiusbymember china:city chongqing 1000 km
# 找出指定元素周围的其他元素!
1) "chongqing"
2) "sichuan"

GEOHASH 返回一个或多个位置元素的Geohash表示。

该命令将返回11个字符的Geohash字符串

# 将二维的经纬度转换为一维的字符串,如果两个字符越相似,两个点距离越近
127.0.0.1:6379> GEOHASH china:city chongqing sichuan
1) "wm78p86e170"
2) "wm6n2j7s310"

GEO 的底层原理

GEO底层实现原理就是Zset , 我们可以通过Zset命令来操作GEO

127.0.0.1:6379> ZRANGE china:city 0 -1
1) "chongqing"
2) "sichuan"
3) "shenzhen"
4) "shanghai"
127.0.0.1:6379> zrem china:city shanghai
(integer) 1
127.0.0.1:6379> ZRANGE china:city 0 -1
1) "chongqing"
2) "sichuan"
3) "shenzhen"

Hyperloglog

什么是基数?

A{1,3,5,7,9,} B{1,3,5,7,8}

基数(不重复的元素) = 5,可以接受误差

简介

Redis2.8.8版本更新了 Hyperloglog 数据结构

Redis Hyperloglog 基数统计的算法!

优点:占用的内存是固定的,2^64 不同的元素的计数,只占用 12KB的内存

网页的UV(一个人访问一个网站多次,但是还是算一个人)

传统方式:set保存用户的id,然后就可以通过set中的元素作为标准判断

这个方式如果保存了大量的用户id,就会比较麻烦

0.81%错误率!统计UV任务,可以忽略不计的!

使用方式

只有三个命令

image-20201228161955355

测试使用

127.0.0.1:6379> pfadd myset a b c d e f g #创建第一组元素
(integer) 1
127.0.0.1:6379> pfcount myset
(integer) 7
127.0.0.1:6379> pfadd myset2 j i z x c b m e #创建第二组元素
(integer) 1
127.0.0.1:6379> pfmerge myset3 myset myset2 #合并两组元素 并 添加到第三组元素
OK
127.0.0.1:6379> pfcount myset3 #对改组元素内不重复的元素进行计数
(integer) 12

Bitmaps(位图)

位存储

统计用户信息 ,活跃,不活跃,登录,未登录:0,1

Bitmaps位图,数据结构!都是操作-进制位来进行记录,就只有0和1两个状态!

测试

通过bitmap来记录周一到周日的打卡

1:打卡 0 未打卡

image-20201229082446580

查看每一天是否打卡 :getbit

image-20201229082657645

统计打卡天数

127.0.0.1:6379> bitcount sign
(integer) 3 

事务

redis事务的本质:一组命令的集合 ,一个事务中的所有命令都会被序列化,在事务执行过程的中,会按照顺序执行!

一次性、顺序性、排他性地执行一系列命令

------队列set set set| 执行------

redis事务没有隔离级别的概念

所有的命令在事务中,并没有直接被执行,只有发起执行命令的时候才会执行

redis单条命令保证原子性,但是事物不保证原子性

redis的事务:

  • 开启事务(multi)
  • 命令入队(...)
  • 执行事务(exec)

正常执行事务!

127.0.0.1:6379> multi #开启事务
OK
#命令入队
127.0.0.1:6379> set k1 v1 
QUEUED
127.0.0.1:6379> set k2 v2 
QUEUED
127.0.0.1:6379> get k2 
QUEUED
127.0.0.1:6379> set k3 v3 
QUEUED
127.0.0.1:6379> exec #执行事务
1) OK
2) OK
3) "v2"
4) OK

放弃事务

127.0.0.1:6379> multi #开启事务
OK
127.0.0.1:6379> set k1 v1 
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k5 v5
QUEUED
127.0.0.1:6379> discard #取消事务 
OK
127.0.0.1:6379> get k5 #事务队列中的命令都不会执行
(nil)

编译型异常(代码有问题),事务中所有命令都不会执行

127.0.0.1:6379> multi
OK
127.0.0.1:6379> set k1 v1
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> getset key3 #错误的命令
(error) ERR wrong number of arguments for 'getset' command
127.0.0.1:6379> exec #执行事务报错 所有的命令都不执行
(error) EXECABORT Transaction discarded because of previous errors.

 

运行时异常(比如1/0这种)如果事务队列中存在语法型错误,其余命令可以正常执行,错误命令抛出异常

127.0.0.1:6379> multi
OK
127.0.0.1:6379> incr k1
QUEUED
127.0.0.1:6379> set k2 v2
QUEUED
127.0.0.1:6379> set k3 v3
QUEUED
127.0.0.1:6379> exec
1) (error) ERR value is not an integer or out of range #虽然第一天命令报错了 但是依旧执行成功
2) OK
3) OK
127.0.0.1:6379> get k2
"v2"

监控!Watch

悲观锁:

  • 认为什么时候都会出问题,无论做什么都要加锁

乐观锁:

  • 认为什么时候都不会出问题,所以不会加锁,更新数据的时候去判断一下,在此期间是否有人更改过这个数据
  • 获取version
  • 更新的时候比较version

redis测监控测试

127.0.0.1:6379> set money 100
OK
127.0.0.1:6379> set out 0
OK
127.0.0.1:6379> watch money #监视money对象
OK
127.0.0.1:6379> multi #事务正常结束,数据期间没有发生变动这个时候就正常执行成功
OK
127.0.0.1:6379> decrby money 20
QUEUED
127.0.0.1:6379> incrby out 20
QUEUED
127.0.0.1:6379> exec
1) (integer) 80
2) (integer) 20
127.0.0.1:6379> 

测试多线程修改 修改值,使用watch可以当作redis的乐观锁操作

127.0.0.1:6379> watch money #监视
OK
127.0.0.1:6379> multi
OK
127.0.0.1:6379> decrby money 10
QUEUED
127.0.0.1:6379> incrby out 10
QUEUED
127.0.0.1:6379> exec #执行之前另外一个线程修改了money,事务执行失败
(nil)

image-20201229092035188

Rdis.conf详解

启动的时候,就通过配置文件来启动

单位

image-20201229092549210

  1. 配置文件 unit单位,对大小写不敏感

包含

image-20201229092702939

可以将多个配置文件组合成一个

网络

bind 127.0.0.1 #绑定的ip
protected-mode yes #保护模式
port 6379 #绑定的端口号

通用配置

daemonize yes #以守护进程的方式运行,默认为no,需要手动修改
pidfile /var/run/redis_6379.pid #如果以后台的方式运行 我们就需要指定一个pid文件
# Specify the server verbosity level.
# This can be one of:
# debug (a lot of information, useful for development/testing)
# verbose (many rarely useful info, but not a mess like the debug level)
# notice (moderately verbose, what you want in production probably) 生产环境使用
# warning (only very important / critical messages are logged)
loglevel notice
logfile "" #日志的文件位置
databases 16 #默认的数据库数量 默认是16个
always-show-logo yes #是否总是显示logo

快照

持久化,在规定的时间内,执行了多少次操作,则会持久化到文件.rdb. aof

redis是内存数据库,如果没有持久化 ,则会断电即失

# 如果900s内,至少有1个key进行了修改之处,就对其持久化操作
save 900 1
# 如果300s内,至少有10个key进行了修改之处,就对其持久化操作
save 300 10
# 如果60s内,至少有10000个key进行了修改之处,就对其持久化操作
save 60 10000
stop-writes-on-bgsave-error yes #持久化如果出错 是否继续工作
rdbcompression yes #是否压缩rdb文件 此时会消耗一定的cpu资源
rdbchecksum yes #保存rdb文件的时候,是否进行错误的检查校验
dir  ./ #rdb的文件保存目录

REPLICATION复制,会在后面的主从复制进行细说

SECURITY安全

可以在这里设置redis的密码,默认是没有密码的 修改配置文件后需要重新连接redis

127.0.0.1:6379> config get requirepass #获取redis的密码
1) "requirepass"
2) ""
127.0.0.1:6379> config set requirepass "wdnmd" #设置redis的密码
OK
127.0.0.1:6379> ping
PONG
127.0.0.1:6379> exit
[root@iZ8vb6wledc1x148ynsj65Z bin]# redis-cli -p 6379
127.0.0.1:6379> ping  #发现对其没有权限,需要对密码进行验证
(error) NOAUTH Authentication required.  
127.0.0.1:6379> auth wdnmd
OK

限制 CLIENTS

maxclients 10000 #设置能连接上redis最大客户端
maxmemory <bytes> # redis配置最大的内存
maxmemory-policy noeviction #内存到达上限后的处理策略

maxmemory-policy 六种方式

1、volatile-lru:只对设置了过期时间的key进行LRU(默认值)

2、allkeys-lru : 删除lru算法的key

3、volatile-random:随机删除即将过期key

4、allkeys-random:随机删除

5、volatile-ttl : 删除即将过期的

6、noeviction : 永不过期,返回错误

APPEND ONLY MODE 模式 aof配置

appendonly no #默认是不开启的,默认的是使用rbd持久化,在大部分情况下,rdb完全够用
appendfilename "appendonly.aof" #持久化的文件名字

# appendfsync always # 每次修改都会 sync 消耗性能
appendfsync everysec #每秒都会sync,可能会丢失这一秒的数据
# appendfsync no #不执行 sync,这个时候操作系统会同步数据 速度最快
 

Redis持久化

RDB(Redis Database)

image-20201229102744543 在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。Redis会单独创建( fork ) 一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换.上次持久化好的文件。整个过程中,主进程是不进行任何I0操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。

rdb保存的文件是dump.rdb,都是在配置文件中的快照中进行配置的

image-20201229103300415

image-20201229103415405

触发机制

  1. save条件满足的情况下,会自动触发rdb规则

  2. 执行flushall命令,也会触发rdb规则

  3. 退出redis,也会触发rdb规则

    备份就会自动生成一个rbd文件

如何恢复rdb文件

  1. 只需要将rdb文件放在我们redis启动目录就可以, redis启动的时候会自动检查dump.rdb恢复其中的数据!

  2. 查看需要存在的位置

    127.0.0.1:6379> config get  dir
    1) "dir"
    2) "/usr/local/bin" #如果在这个目录下存在dump.rdb 文件,启动就会自动恢复其中的数据
    

    尽管默认设置就已经够用了 但是 学习嘛 技多不压身

    优点

    1. 适合大规模的数据恢复 dump.rdb
    2. 如果对数据的完整性要求不高

    缺点

    1. 需要一定的时间间隔进程操作!如果redis意外宕机了,这个最后一次修改数据就没有的了!
    2. fork进程的时候,会占用一定的内容空间! !

AOF(Append Only File)

将我们的所有命令都记录下来, history ,恢复的时候就把这个文件全部在执行一遍!

image-20201229110346443

以日志的形式来记录每个写操作,将Redis执行过的所有指令记录下来(读操作不记录) , 只许追加文件但不可以改写文件, redis 启动之初会读取该文件重新构建数据,换言之, redis重启的话就根据日志文件的内容将写指令从前到后执行- -次以完成数据的恢复 工作 Aof保存的是appendonly.aof文件

image-20201229110604861

默认是不开启的 需要我们手动修改配置

重启redis即可生效

如果这个配置文件aof有错误,这个时候redis会拒绝连接

redis提供了一个工具redis-check-aof --fix

扩展:

1、RDB持久化方式能够在指定的时间间隔内对你的数据进行快照存储 2、AOF 持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据, AOF命令以Redis协 议追加保存每次写的操作到文件末尾, Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。 3、只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化 4、同时开启两种持久化方式

5、性能建议:

●在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据,因为在通常情况下AOF文件保存的数据集要比RDB 文件保存的数据集要完整。 ●RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合 用于备份数据库( AOF在不断变化不好备份) , 快速重启,而且不会有AOF可能潜在的Bug ,留着作为一个万- -的手段。 5、性能建议 ●因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份- -次就够了,只保留save 900 1这条 规则。 ●如果Enable AOF ,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价 一是带来 了持续的I0 ,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要 硬盘许可,应该尽量减少AOF rewrite的频率, AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小 100%大小重写可以改到适当的数值。 ●如果不Enable AOF ,仅靠Master-Slave Repllcation实现高可用性也可以,能省掉一大笔IO ,也减少了rewrite时带来的系统 波动。代价是如果Master/Slave 同时倒掉,会丢失十几分钟的数据 ,启动脚本也要比较两个Master/Slave中的RDB文件,载, 入较新的那个,微博就是这种架构。

Redis发布订阅

Redis发布订阅(pub/sub)是一种消息通信模式:发送者(pub)发送消息,订阅者(sub)接收消息。 Redis客户端可以订阅任意数量的频道。

订阅发布消息图

第一个:消息发送者,第二个:频道第三个:消息订阅者!

image-20201229113625971

命令

image-20201229113856632

测试

订阅端

127.0.0.1:6379> SUBSCRIBE junh.top
Reading messages... (press Ctrl-C to quit)
1) "subscribe"
2) "junh.top"
3) (integer) 1
1) "message"
2) "junh.top"
3) "hello"

发布端:

127.0.0.1:6379> PUBLISH junh.top hello
(integer) 1

原理

Redis是使用C实现的,通过分析Redis源码里的pubsub.c文件,了解发布和订阅机制的底层实现,籍此加深对Redis的理解。Redis通过PUBLISH、SUBSCRIBE 和PSUBSCRIBE等命令实现发布和订阅功能。通过SUBSCRIBE命令订阅某频道后, redis-server 里维护了-一个字典,字典的键就是一个个频道! , 而字典的值则是一个链表 ,链表中保存了所有订阅这个channel的客户端。SUBSCRIBE 命令的关键,就是将客户端添加到给定channel的订阅链表中。 通过PUBLISH命令向订阅者发送消息, redis-server 会使用给定的频道作为键,在它所维护的channel字典中查找记录了订阅这个频道的所有客户端的链表,遍历这个链表,将消息发布给所有订阅者。Pub/Sub从字面上理解就是发布( Publish )与订阅( Subscribe ) , 在Redis中,你可以设定对某-个key值进行消息发布及消息订 阅,当-个key值上进行了消息发布后,所有订阅它的客户端都会收到相应的消息。这-功能最明显的用法就是用作实时消息系统,比如普通的即时聊天,群聊等功能。

Redis主从复制

概念 主从复制,是指将-台Redis服务器的数据 , 复制到其他的Redis服务器。前者称为主节点(master/leader) ,后者称为从节点 (slave/follower) ;数据的复制是单向的,只能由主节点到从节点。Master以写为主 , Slave以读为主。 默认情况下,每台Redis服务器都是主节点;且-一个主节点可以有多个从节点(或没有从节点) ,但-一个从节点只能有一一个主节点。 主从复制的作用主要包括: 1、数据冗余:主从复制实现了数据的热备份,是持久化之外的- -种数据冗余方式。 2、故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。 3、负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务 器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。 4、高可用(集群)基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。 一般来说,要将Redis运用于工程项目中,只使用一台Redis是万万不能的(假如发生了宕机),原因如下: 1、从结构上,单个Redis服务器会发生单点故障, 并且一台服务器需要处理所有的请求负载,压力较大; 2、从容量上,单个Redis服务器内存容量有限,就算一台Redis服务器内存容 量为256G ,也不能将所有内存用作Redis存储内存, 一般来说,单台Redis最大使用内存不应该超过20G。

1、从结构上,单个Redis服务器会发生单点故障,并且一台服务器需要处理所有的请求负载,压力较大; 2、从容量上,单个Redis服务器内存容量有限,就算一台Redis服务器内存容量为256G ,也不能将所有内存用作Redis存储内存, 一般来说,单台Redis最大使用内存不应该超过20G。 电商网站上的商品, -般都是一-次 上传,无数次浏览的,说专业点也就是"多读少写"。 对于这种场景,我们可以使如下这种架构:

image-20201229151830171

主从复制,读写分离! 80% 的情况下都是在进行读操作!减缓服务器的压力!架构中经常使用! -主二从! 只要在公司中,主从复制就是必须要使用的,因为在真实的项目中不可能单机使用Redis !|

环境配置

只需要配置仆库,不用配置主库

127.0.0.1:6379> info replication #查看当前库信息
# Replication
role:master #角色
connected_slaves:0 #没有从机
master_replid:b493985473f8724c87c4fb3c75993a16350d5824
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:0
second_repl_offset:-1
repl_backlog_active:0
repl_backlog_size:1048576
repl_backlog_first_byte_offset:0
repl_backlog_histlen:0

复制3个配置文件,然后修改对应信息

  1. 端口
  2. pid名字
  3. log文件名字
  4. dump.rdb文件名字

修改完毕后 启动这3三个redis

image-20201229154459436

一主二从

默认情况下,每台Redis服务器都是主节点;我们一般情况只用配置从机就好了! 认老大! 一主( 79)二从(80,81])

127.0.0.1:6381> slaveof 127.0.0.1 6379 #配置主机
OK
127.0.0.1:6381> info replication #查看信息
# Replication
role:slave
master_host:127.0.0.1
master_port:6379
master_link_status:up
master_last_io_seconds_ago:3
master_sync_in_progress:0
slave_repl_offset:98
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:94a95e0abe9ad654254230f4e9420afaf9f55a10
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:98
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:85
repl_backlog_histlen:14

127.0.0.1:6379> info replication
# Replication
role:master
connected_slaves:2
slave0:ip=127.0.0.1,port=6380,state=online,offset=224,lag=0
slave1:ip=127.0.0.1,port=6381,state=online,offset=224,lag=0
master_replid:94a95e0abe9ad654254230f4e9420afaf9f55a10
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:224
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:224
127.0.0.1:6379> 

真实的从主配置应该在配置文件中配置,这样的话是永久的,我们这里使用的是命令,暂时的

image-20201229160414901

细节

主机可以i写。从机只能读不能写 但是主机宕机后,从机任然是从机,如果希望从机能过顶上,那就要配置哨兵模式

测试:主机断开连接,从机依旧连接到主机的,但是没有写操作, 这个时候,主机如果回来了,从机依旧可以直接获取到主机写的如果是使用命令行,来配置的主从,这个时候如果重启了,就会变回主机!只要变为从机,立马就会从主机中获取值!

复制原理

Slave启动成功连接到master 后会发送一个sync同步命令 Master接到命令,启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后, master将传送 整个数据文件到slave ,并完成- -次完全同步。 全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。 增量复制: Master继续将新的所有收集到的修改命令依次传给slave ,完成同步 但是只要是重新连接master , - -次完全同步(全量复制)将被自动执行

谋朝篡位

如果主机断开了连接,我们可以使用SLAVEOF no one让自己变成主机!其他的节点就可以手动连接到最新的这个主节点(手动) !如果这个时候老大修复了, 那就需要重新配置

哨兵模式(自动选举主机的模式)

主从切换技术的方法是:当主服务器宕机后,需要手动把一台从服务器切换为主服务器,这就需要人工干预,费事费力,还会造成一段时间内服务不可用。这不是一-种推荐的方式 ,更多时候,我们优先考虑哨兵模式。Redis从2.8开始正式提供了Sentinel (哨兵)架构来解决这个问题。 谋朝篡位的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库。 哨兵模式是一-种特殊的模式,首先Redis提供了哨兵的命令,哨兵是一个独立的进程,作为进程,它会独立运行。其原理是哨兵通过发送命令,等待Redis服务器响应,从而监控运行的多个Redis实例。

image-20201229162054528

这里的哨兵有两个作用 ●通过发送命令,让Redis服务器返回监控其运行状态,包括主服务器和从服务器。 ●当哨兵监测到master宕机,会自动将slave切换成master ,然后通过发布订阅模式通知其他的从服务器,修改配置文件,让它 们切换主机。 然而一个哨兵进程对Redis服务器进行监控,可能会出现问题,为此,我们可以使用多个哨兵进行监控。各个哨兵之间还会进行监 控,这样就形成了多哨兵模式。

image-20201229162137630

假设主服务器宕机,哨兵1先检测到这个结果,系统并不会马上进行failover过程,仅仅是哨兵1主观的认为主服务器不可用,这个现象成为主观下线。当后面的哨兵也检测到主服务器不可用,并且数量达到一定值时,那么哨兵之间就会进行一次投票,投票的结果由一个哨兵发起,进行failover[故障转移]操作。切换成功后,就会通过发布订阅模式,让各个哨兵把自己监控的从服务器实现切换主机,这个过程称为客观下线。

 

测试

我们目前是一主二从

  1. 配置哨兵配置文件sentinel.conf

    #sentinel monitor 被监控的名称 host port 1
    sentinel monitor myredis 127.0.0.1 6379 1
    

    后面的数字1,代表主机挂了slave投票让谁替代成为主机,票数最多会成为主机

  2. 启动哨兵

    [root@iZ8vb6wledc1x148ynsj65Z bin]# redis-sentinel gconfig/sentinel.conf 
    898144:X 29 Dec 2020 16:29:36.823 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
    898144:X 29 Dec 2020 16:29:36.823 # Redis version=6.0.6, bits=64, commit=00000000, modified=0, pid=898144, just started
    898144:X 29 Dec 2020 16:29:36.823 # Configuration loaded
                    _._                                                  
               _.-``__ ''-._                                             
          _.-``    `.  `_.  ''-._           Redis 6.0.6 (00000000/0) 64 bit
      .-`` .-```.  ```\/    _.,_ ''-._                                   
     (    '      ,       .-`  | `,    )     Running in sentinel mode
     |`-._`-...-` __...-.``-._|'` _.-'|     Port: 26379
     |    `-._   `._    /     _.-'    |     PID: 898144
      `-._    `-._  `-./  _.-'    _.-'                                   
     |`-._`-._    `-.__.-'    _.-'_.-'|                                  
     |    `-._`-._        _.-'_.-'    |           http://redis.io        
      `-._    `-._`-.__.-'_.-'    _.-'                                   
     |`-._`-._    `-.__.-'    _.-'_.-'|                                  
     |    `-._`-._        _.-'_.-'    |                                  
      `-._    `-._`-.__.-'_.-'    _.-'                                   
          `-._    `-.__.-'    _.-'                                       
              `-._        _.-'                                           
                  `-.__.-'                                               
    
    898144:X 29 Dec 2020 16:29:36.824 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
    898144:X 29 Dec 2020 16:29:36.826 # Sentinel ID is bf806a0c34269ae48999686265d00715fb70ec1c
    898144:X 29 Dec 2020 16:29:36.826 # +monitor master myredis 127.0.0.1 6379 quorum 1
    898144:X 29 Dec 2020 16:29:36.827 * +slave slave 127.0.0.1:6380 127.0.0.1 6380 @ myredis 127.0.0.1 6379
    898144:X 29 Dec 2020 16:29:36.828 * +slave slave 127.0.0.1:6381 127.0.0.1 6381 @ myredis 127.0.0.1 6379
    
    

    如果Master节点断开了,这个时候就会从从机中随机选择一个服务器 ! ( 这里面有一个投票算法! )

    image-20201229163606104

哨兵模式

如果主机此时回来了,只能归并到新的主机下,当做从机,这就是哨兵模式的规则!

优点: 1、哨兵集群,基于主从复制模式,所有的主从配置优点,它全有 2、主从可以切换,故障可以转移,系统的可用性就会更好 3、哨兵模式就是主从模式的升级,手动到自动,更加健壮! 缺点: 1、Redis 不好在线扩容的,集群容量一旦到达上限,在线扩容就十分麻烦! 2、实现哨兵模式的配置其实是很麻烦的,里面有很多选择!

redis缓存穿透和雪崩

缓存穿透(查不到)

概念

缓存穿透的概念很简单,用户想要查询一-个数据,发现redis内存数据库没有,也就是缓存没有命中,于是向持久层数据库查询。发现也没有,于是本次查询失败。当用户很多的时候,缓存都没有命中(秒杀!|) , 于是都去请求了持久层数据库。这会给持久层数据库造成很大的压力,这时候就相当于出现了缓存穿透。

解决方案

布隆过滤器

布隆过滤器是一种数据结构 ,对所有可能查询的参数以hash形式存储,在控制层先进行校验,不符合则丢弃,从而避免了对底层存储系统的查询压力;

image-20201229195110366

缓存空对象

image-20201229195203888

缓存击穿(查询量过大,缓存过期)

概述

这里需要注意和缓存击穿的区别,缓存击穿,是指一个key非常热点,在不停的扛着大并发,大并发集中对这一个点进行访问,当这个key在失效的瞬间,持续的大并发就穿破缓存,直接请求数据库,就像在一个屏障上凿开了一个洞。当某个key在过期的瞬间,有大量的请求并发访问,这类数据一般是热点数据 ,由于缓存过期,会同时访问数据库来查询最新数据,并且回写缓存,会导使数据库瞬间压力过大。

解决法案

设置热点数据永不过期 从缓存层面来看,没有设置过期时间,所以不会出现热点key过期后产生的问题。 加互斥 分布式锁:使用分布式锁,保证对于每个key同时只有一个线程去查询后端服务,其他线程没有获得分布式锁的权限,因此只需要等待即可。这种方式将高并发的压力转移到了分布式锁,因此对分布式锁的考验很大。

缓存雪崩

概念

缓存雪崩,是指在某一个时间段 ,缓存集中过期失效。Redis 宕机! 产生雪崩的原因之一- , 比如在写本文的时候,马.上就要到双十二零点,很快就会迎来一波抢购,这波商品时间比较集中的放入了缓 存,假设缓存一个小时。那么到了凌晨一-点钟的时候 ,这批商品的缓存就都过期了。而对这批商品的访问查询,都落到了数据库 上,对于数据库而言,就会产生周期性的压力波峰。于是所有的请求都会达到存储层,存储层的调用量会暴增,造成存储层也会挂 掉的情况。

image-20201229195904076

其实集中过期,倒不是非常致命,比较致命的缓存雪崩,是缓存服务器某个节点宕机或断网。因为自然形成的缓存雪崩,-定是在 某个时间段集中创建缓存,这个时候,数据库也是可以顶住压力的。无非就是对数据库产生周期性的压力而已。而缓存服务节点的 宕机,对数据库服务器造成的压力是不可预知的,很有可能瞬间就把数据库压垮。

解决方案

redis高可用 这个思想的含义是,既然redis有可能挂掉,那我多增设几台redis ,这样一台挂掉之 后其他的还可以继续工作,其实就是搭建的集 群。(异地多活!) 限流降级 这个解决方案的思想是,在缓存失效后,通过加锁或者队列来控制读数据库写缓存的线程数量。比如对某个key只允许一个线程查 询数据和写缓存,其他线程等待。 数据预热 数据加热的含义就是在正式部署之前,我先把可能的数据先预先访问一遍,这样部分可能大量访问的数据就会加载到缓存中。在即 将发生大并发访问前手动触发加载缓存不同的key ,设置不同的过期时间,让缓存失效的时间点尽量均匀。