Redis的噩梦:阻塞(JedisConnectionException、以及CPU饱和内存不足等)[通俗易懂]

Redis的噩梦:阻塞(JedisConnectionException、以及CPU饱和内存不足等)[通俗易懂]Redis是典型的单线程架构,所有的读写操作都是在一条主线程中完成的。当Redis用于高并发场景时,这条线程就变成了它的生命线。如果出现阻塞,哪怕是很短时间,对于我们的应用来说都是噩梦。导致阻塞问题的

Redis的噩梦:阻塞(JedisConnectionException、以及CPU饱和内存不足等)

  Redis是典型的单线程架构,所有的读写操作都是在一条主线程中完成的。当Redis用于高并发场景时,这条线程就变成了它的生命线。如果出现阻塞,哪怕是很短时间,对于我们的应用来说都是噩梦。导致阻塞问题的场景大致分为内在原因和外在原因:

·内在原因包括:不合理地使用API或数据结构、CPU饱和、持久化阻塞等。
·外在原因包括:CPU竞争、内存交换、网络问题等

  • 发现阻塞:当Redis阻塞时,线上应用服务应该最先感知到,这时应用方会收到大量Redis超时异常,比如Jedis客户端会抛出JedisConnectionException异常。完备的短信监控告警
  • 内在原因:
  1. API或数据结构使用不合理:通常Redis执行命令速度非常快,但也存在例外,如对一个包含上万个元素的hash结构执行hgetall操作,由于数据量比较大且命令算法复杂度是O(n),这条命令执行速度必然很慢。这个问题就是典型的不合理使用API和数据结构。对于高并发的场景我们应该尽量避免在大对象上执行算法复杂度超过O(n)的命令
  2. 发现慢查询:执行slowlog get{n}命令可以获取最近的n条慢查询命令,默认对于执行超过10毫秒的命令都会记录到一个定长队列中。
  3. 如何发现大对象:redis-cli-h{ip}-p{port}bigkeys。内部原理采用分段进行scan操作,把历史扫描过的最大对象统计出来便于分析优化
  • CPU饱和

  单线程的Redis处理命令时只能使用一个CPU。而CPU饱和是指Redis把单核CPU使用率跑到接近100%。使用top命令很容易识别出对应Redis进程的CPU使用率。CPU饱和是非常危险的,将导致Redis无法处理更多的命令,严重影响吞吐量和应用方的稳定性。

  使用统计命令redis-cli-h{ip}-p{port}–stat获取当前Redis使用情况,该命令每秒输出一行统计信息

Redis的噩梦:阻塞(JedisConnectionException、以及CPU饱和内存不足等)[通俗易懂]

   以上输出是一个接近饱和的Redis实例的统计信息,它每秒平均处理6万+的请求。对于这种情况,垂直层面的命令优化很难达到效果,这时就需要做集群化水平扩展来分摊OPS压力。如果只有几百或几千OPS的Redis实例就接近CPU饱和是很不正常的,有可能使用了高算法复杂度的命令。还有一种情况是过度的内存优化,这种情况有些隐蔽,需要我们根据info commandstats统计信息分析出命令不合理开销时间,例如下面的耗时统计:

Redis的噩梦:阻塞(JedisConnectionException、以及CPU饱和内存不足等)[通俗易懂]

 

 

   查看这个统计可以发现一个问题,hset命令算法复杂度只有O(1)但平均耗时却达到135微秒,显然不合理,正常情况耗时应该在10微秒以下。这是因为上面的Redis实例为了追求低内存使用量,过度放宽ziplist使用条件(修改了hash-max-ziplist-entries和hash-max-ziplist-value配置)。进程内的hash对象平均存储着上万个元素,而针对ziplist的操作算法复杂度在O(n)到O(n2)之间。虽然采用ziplist编码后hash结构内存占用会变小,但是操作变得更慢且更消耗CPU。ziplist压缩编码是Redis用来平衡空间和效率的优化手段,不可过度使用。

  • 持久化阻塞
  1. fork阻塞:fork操作发生在RDB和AOF重写时,Redis主线程调用fork操作产生共享内存的子进程,由子进程完成持久化文件重写工作。如果fork操作本身耗时过长,必然会导致主线程的阻塞,可以执行info stats命令获取到latest_fork_usec指标,表示Redis最近一次fork操作耗时,如果耗时很大,比如超过1秒,则需要做出优化调整,如避免使用过大的内存实例和规避fork缓慢的操作系统等。
  2. AOF刷盘阻塞:当我们开启AOF持久化功能时,文件刷盘的方式一般采用每秒一次,后台线程每秒对AOF文件做fsync操作。当硬盘压力过大时,fsync操作需要等待,直到写入完成。如果主线程发现距离上一次的fsync成功超过2秒,为了数据安全性它会阻塞直到后台线程执行fsync操作完成。      #运维提示:硬盘压力可能是Redis进程引起的,也可能是其他进程引起的,可以使用iotop查看具体是哪个进程消耗过多的硬盘资源。
  3. HugePage写操作阻塞:子进程在执行重写期间利用Linux写时复制技术降低内存开销,因此只有写操作时Redis才复制要修改的内存页。对于开启Transparent HugePages的操作系统,每次写命令引起的复制内存页单位由4K变为2MB,放大了512倍,会拖慢写操作的执行时间,导致大量写操作慢查询。
  •  外在原因
  1. CPU竞争:
  • 进程竞争
    :Redis是典型的CPU密集型应用,不建议和其他多核CPU密集型服务部署在一起。当其他进程过度消耗CPU时,将严重影响Redis吞吐量。可以通过top、sar等命令定位到CPU消耗的时间点和具体进程

  • 绑定CPU
    :部署Redis时为了充分利用多核CPU,通常一台机器部署多个实例。常见的一种优化是把Redis进程绑定到CPU上,用于降低CPU频繁上下文切换的开销

  2.内存交换:

  内存交换(swap)对于Redis来说是非常致命的,Redis保证高性能的一个重要前提是所有的数据在内存中。如果操作系统把Redis使用的部分内存换出到硬盘,由于内存与硬盘读写速度差几个数量级,会导致发生交换后的Redis性能急剧下降。

  1)查询Redis进程号:
  

# redis-cli -p 6383 info server | grep process_id
process_id:4476

 

  2)根据进程号查询内存交换信息:

# cat /proc/4476/smaps | grep Swap
Swap: 0 kB
Swap: 0 kB
Swap: 4 kB

如果交换量都是0KB或者个别的是4KB,则是正常现象,说明Redis进程内存没有被交换。预防内存交换的方法有:
·保证机器充足的可用内存。
·确保所有Redis实例设置最大可用内存(maxmemory),防止极端情况下Redis内存不可控的增长。
·降低系统使用swap优先级,如echo10>/proc/sys/vm/swappiness

 

  3.网络问题

  • 连接拒绝:网络闪断,一般发生在网络割接或者带宽耗尽的情况,对于网络闪断的识别比较困难,常见的做法可以通过sar-n DEV查看本机历史流量是否正常
  • Redis连接拒绝
    Redis通过maxclients参数控制客户端最大连接数,默认10000。当Redis连接数大于maxclients时会拒绝新的连接进入,info stats的rejected_connections统计指标记录所有被拒绝连接的数量

  • 连接溢出:进程使用的资源做限制
  • 连接溢出:backlog队列溢出、系统对于特定端口的TCP连接使用backlog队列保存。Redis默认的长度为511,通过tcp-backlog参数设置。如果Redis用于高并发场景为了防止缓慢连接占用,可适当增大这个设置,但必须大于操作系统允许值才能生效。
  • 网络延迟:网络带宽不稳定

总结:

1)客户端最先感知阻塞等Redis超时行为,加入日志监控报警工具可快速定位阻塞问题,同时需要对Redis进程和机器做全面监控。
2)阻塞的内在原因:确认主线程是否存在阻塞,检查慢查询等信息,发现不合理使用API或数据结构的情况,如keys、sort、hgetall等。关注CPU使用率防止单核跑满。当硬盘IO资源紧张时,AOF追加也会阻塞主线程。
3)阻塞的外在原因:从CPU竞争、内存交换、网络问题等方面入手排查是否因为系统层面问题引起阻塞。

  

 

原文地址:https://www.cnblogs.com/mingtianguohou/archive/2022/08/02/16542804.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
转载请注明出处: https://daima100.com/4938.html

(0)
上一篇 2023-05-29
下一篇 2023-05-29

相关推荐

  • Python网络爬虫工具

    Python网络爬虫工具网络爬虫是一种能够自动访问互联网并采集网页信息的程序,被广泛应用于搜索引擎、价格比较网站和内容聚合网站等领域。随着互联网的快速发展,网络爬虫变得越来越重要。而Python作为一种简单易学、但功能强大的编程语言,其网络爬虫工具也逐渐成为了业内主流。

    2024-07-02
    52
  • 使用time.sleep(1)进行Python编程休眠操作

    使用time.sleep(1)进行Python编程休眠操作在进行Python编程过程中,我们常常需要进行休眠操作,即程序暂停一段时间。这时,我们可以使用Python中的time模块中的sleep()函数来实现。休眠操作在处理网络请求、爬虫、文件读写等领域都有广泛应用。

    2024-05-30
    65
  • Python实现简单的命令行工具

    Python实现简单的命令行工具a href=”https://beian.miit.gov.cn/”苏ICP备2023018380号-1/a Copyright www.python100.com .Some Rights Reserved.

    2024-02-26
    106
  • 5 django mysql[亲测有效]

    5 django mysql[亲测有效]1 mysql 解压版 参考: https://www.cnblogs.com/guanfuchang/p/6019758.html https://blog.csdn.net/ermaner666…

    2023-04-15
    168
  • Redis系列(三):Redis的持久化机制(RDB、AOF)「建议收藏」

    Redis系列(三):Redis的持久化机制(RDB、AOF)「建议收藏」Redis的持久化机制(RDB、AOF)。

    2023-01-27
    143
  • postgresql lock 锁等待查看

    postgresql lock 锁等待查看postgresql lock 锁等待查看 当SQL请求锁等待超过deadlock_timeout指定的时间时,报类似如下日志: LOG: process xxx1 acquired RowExcl…

    2023-02-22
    158
  • 优雅地使用Python条件嵌套语句

    优雅地使用Python条件嵌套语句Python是一种动态解释型的高级编程语言,它的语法简洁易懂,代码简洁易读,在很多场景下都可以替代复杂的编程语言。Python的语言特性之一是条件嵌套语句,它可以根据不同的判断条件执行不同的代码块,使得程序执行更加灵活。本文将从多个方面来详细地讲解如何优雅地使用Python条件嵌套语句,帮助读者更好地理解条件嵌套语句的使用方法。

    2024-03-24
    86
  • 安装Scrapy的步骤

    安装Scrapy的步骤Scrapy是一个纯Python的开源爬虫框架,可用于抓取网站数据。Scrapy是一个高度定制化的爬虫工具,可以自由设置各种参数,满足各种需求。如果您想学习Python爬虫,那么Scrapy是一个值得学习的爬虫框架。

    2024-04-21
    68

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注