集合类型(set)
sadd key element #向集合key添加element(如果element存在,添加失败) o(1) srem key element #从集合中的element移除掉 o(1) scard key #计算集合大小 sismember key element #判断element是否在集合中 srandmember key count #从集合中随机取出count个元素,不会破坏集合中的元素 (抽奖) spop key #从集合中随机弹出一个元素 smembers key #获取集合中所有元素 ,无序,小心使用,会阻塞住 sdiff user:1:follow user:2:follow #计算user:1:follow和user:2:follow的差集 sinter user:1:follow user:2:follow #计算user:1:follow和user:2:follow的交集 sunion user:1:follow user:2:follow #计算user:1:follow和user:2:follow的并集 sdiff|sinter|suion + store destkey... #将差集,交集,并集结果保存在destkey集合中 sdiffstore xxx number1 number2 SUNIONSTORE myset myset1 myset2 ### 总结 ### 实战 抽奖系统 :通过spop来弹出用户的id,活动取消,直接删除 点赞,点踩,喜欢等,用户如果点了赞,就把用户id放到该条记录的集合中 标签:给用户/文章等添加标签,sadd user:1:tags 标签1 标签2 标签3 给标签添加用户,关注该标签的人有哪些 共同好友:集合间的操作 # 总结4 sadd:可以做标签相关 spop/srandmember:可以做随机数相关 sadd/sinter:社交相关
有序集合(zset)
#### 特点 有一个分值字段,来保证顺序 key score value user:ranking 1 lqz user:ranking 99 lqz2 user:ranking 88 lqz3 #集合有序集合 集合:无重复元素,无序,element 有序集合:无重复元素,有序,element+score #列表和有序集合 列表:可以重复,有序,element 有序集合:无重复元素,有序,element+score # API使用 zset zadd key score element #score可以重复,可以多个同时添加,element不能重复 o(logN) zrem key element #删除元素,可以多个同时删除 o(1) zscore key element #获取元素的分数 o(1) zincrby key increScore element #增加或减少元素的分数 o(1) zcard key #返回元素总个数 o(1) zrank key element #返回element元素的排名(从小到大排) zrange key 0 -1 #返回排名,不带分数 o(log(n)+m) n是元素个数,m是要获取的值 zrange player:rank 0 -1 withscores #返回排名,带分数 zrangebyscore key minScore maxScore #返回指定分数范围内的升序元素 o(log(n)+m) n是元素个数,m是要获取的值 zrangebyscore user:1:ranking 90 210 withscores #获取90分到210分的元素 zcount key minScore maxScore #返回有序集合内在指定分数范围内的个数 o(log(n)+m) zremrangebyrank key start end #删除指定排名内的升序元素 o(log(n)+m) zremrangebyrank user:1:rangking 1 2 #删除升序排名中1到2的元素 zremrangebyscore key minScore maxScore #删除指定分数内的升序元素 o(log(n)+m) zremrangebyscore user:1:ranking 90 210 #删除分数90到210之间的元素 # 其他操作 zrevrank #从高到低排序 zrevrange #从高到低排序取一定范围 zrevrangebyscore #返回指定分数范围内的降序元素 zinterstore #对两个有序集合交集 zunionstore #对两个有序集合求并集 # 实战 排行榜:音乐排行榜,销售榜,关注榜,游戏排行榜
慢查询(排查reids慢的问题)
# MySQL 中的 7 种日志介绍 # 生命周期 客户端编写命令 get name---》通过网络 ---》到服务端---》服务端执行命令【查询,修改。。】---》返回数据通过网络返回给客户端 我们配置一个时间,如果查询时间超过了我们设置的时间,我们就认为这是一个慢查询. 慢查询发生在第三阶段 客户端超时不一定慢查询,但慢查询是客户端超时的一个可能因素 # 两个配置 配置慢查询 -只要是超过慢查询时间的命令,都会被记录 -后期通过记录分析,哪些命令是慢的,尽量在生成环境中避免 -慢查询是一个队列,里面记录了,超过你设定时间的命令 - 通过两个配置: slowlog-log-slower-than 慢于多少微秒的都会被记录 slowlog-max-len 队列长度是多少 -配置文件直接配置 # 设置记录所有命令 config set slowlog-log-slower-than 0 # 最多记录100条 config set slowlog-max-len 100 # 持久化到本地配置文件 config rewrite -查看慢查询队列 slowlog get 100 slowlog len #获取慢查询队列长度 slowlog reset #清空慢查询队列 # 总结: 开启慢查询记录后---》只要超过某个时间的命令,都会被记录到慢查询队列中 后期我们可以通过慢查询队列中的命令,优化程序,提高redis使用效率
pipline与事务
# redis 其实不支持事务,但是可以通过pipline来模拟事务,pipline只支持单实例redis,如果做集群,没有pipiline # redis 支持事务吗? 不支持,可以通过pipline实现,但是集群环境不能用pipline ### python客户端实现 import redis pool = redis.ConnectionPool(host='10.0.0.111', port=6379) r = redis.Redis(connection_pool=pool) # pipe = r.pipeline(transaction=False) #创建pipeline pipe = r.pipeline(transaction=True) #开启事务 pipe.multi() pipe.set('name', 'lqz') #其他代码,可能出异常 pipe.set('role', 'nb') pipe.execute() ####### 原生redis操作,模拟事务########## # 0 开启两个客户端 # 在第一个客户端执行 mutil 开启事务,放到管道中一次性执行 multi # 开启事务 set name lqz set age 18 exec # 在第二个客户端去查询,如果第一个客户端没有执行exec ,查询不到第一个事务未提交的数据 # 隔离级别---》读已提交级别 ########## 原生redis 通过watch+pipline(multi) 模拟乐观锁########## ### 0 开启两个客户端 ### 1 第一个客户端上 在开启事务之前,先watch wathc age # 看了一眼,是10 multi decr age # 它有可能被别人操作了 exec # 另一台机器 multi decr age exec # 先执行,上面的执行就会失败(乐观锁,被wathc的事务不会执行成功) #### 集成到python项目中实现基于redis利用redis的乐观锁,实现秒杀系统的数据同步(基于watch实现), import redis from threading import Thread def choose(name, conn): # conn.set('count',10) with conn.pipeline() as pipe: # 先监视,自己的值没有被修改过 conn.watch('count') # 事务开始 pipe.multi() old_count = conn.get('count') count = int(old_count) # input('我考虑一下') # time.sleep(random.randint(1, 2)) if count > 0: # 有库存 pipe.set('count', count - 1) # 执行,把所有命令一次性推送过去 ret = pipe.execute() print(ret) if len(ret) > 0: print('第%s个人抢购成功' % name) else: print('第%s个人抢购失败' % name) if __name__ == '__main__': conn = redis.Redis(host='10.0.0.111', port=6379,password='654321') for i in range(100): t = Thread(target=choose, args=(i, conn)) t.start()
发布订阅
# 发布者发布了消息,所有的订阅者都可以收到,就是生产者消费者模型(后订阅了,无法获取历史消息) # 如果是消息队列 生产者生产了一条消息---》只会有一个消费者消费 # 如果是发布定义---》发布订阅---》观察者模式 生产者生产了一条消息---》所有订阅生产者的消费者都会收到消息 # 实际操作 -发布者发布消息 publish channel01 "hello world" -订阅者01订阅频道 channel01 subscribe channel01 -订阅者02订阅频道 channel01 subscribe channel01 # 实际用途 -只要设计到,一个人发生变化,其他人都收到通知的情况,就可以使用发布订阅 -如何用,python? 员工1 ,员工2 关注了 张三 张三发送一篇文章---》文章保存到数据库了---》信号绑定一个函数--》在函数中发布消息 conn.publish('user_zhangsan_new_article','文章id') 启动一个程序---》等待别人发布消息---》只要别人发布了消息---》取出频道--》去mysql查看哪些员工订阅了这个频道---[员工1 ,员工2]--->发邮件通知
bitmap
# 操作比特位 c i g 01100011 01101001 01100111 set hello big #放入key位hello 值为big的字符串 getbit hello 0 #取位图的第0个位置,返回0 getbit hello 1 #取位图的第1个位置,返回1 如上图 # 我们可以直接操纵位 setbit key offset value #给位图指定索引设置值 setbit hello 7 1 #把hello的第7个位置设为1 这样,big就变成了cig # 独立用户统计---》统计日活---》用户量足够大--》节约内存 -10亿用户 用户id1 2 3 10亿 -统计日活,只要用户登录,只要用户登录,就把用户id放到集合中 -晚上只需要统计一下 集合大小---》就能统计出日活 -使用集合存储---》1--》32位--》1亿用户 5千万左右---》需要 200MB空间 int8个比特位表示范围 -128--127之间 int16 int32 个比特位表示范围 -2的31次方---2的31次方 2147483648 -使用位图---》12.5MB空间
HyperLogLog
基于HyperLogLog算法:极小的空间完成独立数量统计,极小内存实现去重 pfadd urls "www.baidu.com" "www.cnblogs.com" "www.lqz.com" pfcount urls pfadd urls 值 # 返回0表示在,返回1 表示不在 # 总结 百万级别独立用户统计,百万条数据只占15k 错误率 0.81% 无法取出单条数据,只能统计个数
geo
# GEO(地理信息定位):存储经纬度,计算两地距离,范围等 # 经纬度如何获取? -不是后端做的 -手机端---》手机有定位--》申请了定位---》手机端能拿到经纬度---》提供接口--->提交到后端 -web端---》js获取经纬度---》提供接口---》提交到后端 # 后端只需要存储 geoadd key longitude latitude member #增加地理位置信息 geoadd cities:locations 116.28 39.55 beijing #把北京地理信息天津到cities:locations中 geoadd cities:locations 117.12 39.08 tianjin geoadd cities:locations 114.29 38.02 shijiazhuang geoadd cities:locations 118.01 39.38 tangshan geoadd cities:locations 115.29 38.51 baoding # 统计两个经纬度距离 geodist cities:locations beijing baoding km # 统计北京方圆 100公里内的城市 georadiusbymember cities:locations beijing 100 km
标签:HyperLogLog,redis,bitmap,---,user,key,集合,element From: https://www.cnblogs.com/wzh366/p/18088040