博客
关于我
Tomcat 启动速度慢,一直转圈的原因
阅读量:771 次
发布时间:2019-03-23

本文共 1422 字,大约阅读时间需要 4 分钟。

Tomcat启动速度慢的原因分析及解决方案

在刚刚安装的CentOS7系统上,Tomcat启动速度异常缓慢。经过一系列排查,最初我误以为是程序本身的问题,于是我将webapps目录下的所有应用程序删除,仅保留了Tomcat自带的脚本。这看似合理的操作却引发了一系列令人费解的问题。

初步排查发现,Tomcat的JVM进程已经正常运行,故排除了JVM本身退出的可能性。进一步分析系统资源使用情况,发现CPU、内存和硬盘空间都未成问题,网络和硬盘I/O流量也未出现异常。这个时候,问题变得颇为棘手,因为所有资源都处于充裕状态,但Tomcat却被一些隐藏的问题严重阻塞。

最终,通过虚拟化环境的比较,我发现问题依然存在。为了进一步定位问题,我尝试使用strace工具进行系统调试。这一工具能够跟踪进程的系统调用,从而帮助我发现Tomcat停留在哪个系统调用上。

通过运行strace -f -o strace.out ./catalina.sh run,我可以详细追踪Tomcat的系统调用行为。观察strace输出文件,发现Tomcat页面生成过程中频繁访问/dev/random,并且该设备的读取操作处于阻塞状态。

进一步调查发现,/dev/random是用于生成随机数的设备。如果设备无法产生足够的熵(在熵池中不存在充分的randomness),就会导致读取操作阻塞。Tomcat生成Session ID时会调用/dev/random来获取随机数种子,而该设备的性能显得不足。

为了解决这个问题,有三种解决方案可以选择:

  • 替换随机数源:将/dev/random替换为性能更高的/dev/urandom。这一方法直接解决了性能瓶颈问题。具体操作如下:

    • 修改Tomcat启动脚本,添加参数-Djava.security.egd=file:/dev/urandom
    • 或者编辑JAVA_PATH/jre/lib/security/java.security文件,修改securerandom.sourcefile:/dev/urandom
  • 增大熵池:如果设备支持,利用硬件加速的随机数生成器(如Intel的RDRAND)来提供额外的熵源。这样可以显著提高熵池的容量和生成速度。

  • 使用rngd服务:如果硬件不支持RDRAND,可以使用rngd服务来增大熵池容量。这涉及安装并配置rngd服务:

    yum install rng-toolssystemctl start rngdsystemctl enable rngd

    这种方法尤其适用于虚拟化环境,能够有效提升整体系统性能。

  • 在实际操作中,我发现直接修改Tomcat配置并不能全面解决问题,因为这仅适用于Java环境下的应用。此外,其他应用如Apache、Nginx、OpenSSL等也可能受到/dev/random性能上的影响。因此,最终决定使用rngd服务来增大熵池容量,这样能够系统性地提升整个系统的随机数生成能力。

    通过以上方法,Tomcat启动速度得到了显著提升。随后,我还验证了随机数生成的效率,用dd if=/dev/random of=random.dat count=40960测试,结果显示系统能够快速生成所需的随机数。

    总的来说,这个问题主要是由随机数生成设备无法满足需求引起的。理解和分析系统调用行为的关键在于结合设备特性和应用场景,选择最合适的解决方案才能实现彻底修复。

    转载地址:http://wbkkk.baihongyu.com/

    你可能感兴趣的文章
    NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
    查看>>
    NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
    查看>>
    NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
    查看>>
    NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
    查看>>
    NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
    查看>>
    NIFI从Oracle11G同步数据到Mysql_亲测可用_解决数据重复_数据跟源表不一致的问题---大数据之Nifi工作笔记0065
    查看>>
    NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
    查看>>
    nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
    查看>>
    NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
    查看>>