您的当前位置:全部分类图书 > 计算机网络 > 程序设计 > Java

Java性能优化权威指南/图灵程序设计丛书

定 价
售 价
配送至
收货地址
其他地址
数量
-
+
服务
  • 出版社:人民邮电
  • ISBN:9787115342973
  • 作者:(美)亨特//约翰|译者:柳飞//陆明刚
  • 页数:525
  • 出版日期:2014-03-01
  • 印刷日期:2014-03-01
  • 包装:平装
  • 开本:16开
  • 版次:1
  • 印次:1
  • 字数:799千字
  • 亨特、约翰编著的《Java性能优化**指南》主要为Java SE和Java EE应用的性能调优提供建议。具体来说包括以下几方面:性能监控、性能分析、Java HotSpot VM(以下简称HotSpot VM)调优、高效的基准测试以及Java EE应用的性能调优。虽然近些年出版过几本Java性能方面的书,但覆盖面像本书这样广的并不多见。本书的主题涵盖了诸如现代Java虚拟机的内部运作机制、垃圾收集的调优、JavaEE应用的性能调优以及如何编写卓有成效的基准测试。
    通读本书后,读者可以深入了解Java性能调优的许多主题。读者也可以把本书作为参考,对于感兴趣的主题,直接跳到相应章节寻找答案。
  • 亨特、约翰编著的《Java性能优化权威指南》主 要为Java SE和Java EE应用的性能调优提供建议。主 要包括以下几方面:性能监控、性能分析、Java HotSpot VM调优、高效的基准测试以及Java EE应用 的性能调优。 《Java性能优化权威指南》适合所有Java程序员 、系统调优师和系统架构师阅读。
  • 第1章 策略、方法和方法论 1
    1.1 性能问题的现状 1
    1.2 性能分析的两种方法:自顶向下和自底向上 4
    1.2.1 自顶向下 4
    1.2.2 自底向上 5
    1.3 选择正确的平台并评估系统性能 5
    1.3.1 选择正确的CPU架构 6
    1.3.2 评估系统性能 7
    1.4 参考资料 7

    第2章 操作系统性能监控 8
    2.1 定义 8
    2.2 CPU使用率 9
    2.2.1 监控CPU使用率:Windows 9
    2.2.2 监控CPU使用率:Windows typeperf 12
    2.2.3 监控CPU使用率:Linux 13
    2.2.4 监控CPU使用率:Solaris 14
    2.2.5 命令行监控CPU使用率:Linux和Solaris 16
    2.3 CPU调度程序运行队列 19
    2.3.1 监控CPU调度程序运行队列:Windows 19
    2.3.2 监控CPU调度程序运行队列:Solaris 21
    2.3.3 监控CPU调度程序运行队列:Linux 21
    2.4 内存使用率 22
    2.4.1 监控内存利用率:Windows 22
    2.4.2 监控内存使用率:Solaris 23
    2.4.3 监控内存使用率:Linux 24
    2.4.4 监控锁竞争:Solaris 25
    2.4.5 监控锁竞争:Linux 26
    2.4.6 监控锁竞争:Windows 27
    2.4.7 隔离竞争锁 27
    2.4.8 监控抢占式上下文切换 27
    2.4.9 监控线程迁移 28
    2.5 网络I/O使用率 28
    2.5.1 监控网络I/O使用率:Solaris 29
    2.5.2 监控网络I/O使用率:Linux 30
    2.5.3 监控网络I/O使用率:Windows 30
    2.5.4 应用性能改进的考虑 31
    2.6 磁盘I/O使用率 31
    2.7 其他命令行工具 34
    2.8 监控CPU使用率:SPARC T系列系统 35
    2.9 参考资料 36

    第3章 JVM概览 38
    3.1 HotSpot VM的基本架构 38
    3.2 HotSpot VM运行时 40
    3.2.1 命令行选项 40
    3.2.2 VM生命周期 41
    3.2.3 VM类加载 44
    3.2.4 字节码验证 46
    3.2.5 类数据共享 47
    3.2.6 解释器 48
    3.2.7 异常处理 49
    3.2.8 同步 50
    3.2.9 线程管理 51
    3.2.10 C++堆管理 53
    3.2.11 Java本地接口 54
    3.2.12 VM致命错误处理 55
    3.3 HotSpot VM垃圾收集器 56
    3.3.1 分代垃圾收集 56
    3.3.2 新生代 58
    3.3.3 快速内存分配 60
    3.3.4 垃圾收集器 60
    3.3.5 Serial收集器 61
    3.3.6 Parallel收集器:吞吐量为先! 62
    3.3.7 Mostly-Concurrent收集器:低延迟为先! 62
    3.3.8 Garbage-First收集器:CMS替代者 64
    3.3.9 垃圾收集器比较 64
    3.3.10 应用程序对垃圾收集器的影响 65
    3.3.11 简单回顾收集器历史 65
    3.4 HotSpot VM JIT编译器 65
    3.4.1 类型继承关系分析 67
    3.4.2 编译策略 67
    3.4.3 逆优化 68
    3.4.4 Client JIT编译器概览 69
    3.4.5 Server JIT编译器概览 69
    3.4.6 静态单赋值——程序依赖图 69
    3.4.7 未来增强展望 71
    3.5 HotSpot VM自适应调优 71
    3.5.1 Java 1.4.2的默认值 71
    3.5.2 Java 5自动优化的默认值 71
    3.5.3 Java 6 Update 18*新后的默认优化值 73
    3.5.4 自适应Java堆调整 74
    3.5.5 **自动优化 75
    3.6 参考资料 75

    第4章 JVM性能监控 77
    4.1 定义 77
    4.2 垃圾收集 78
    4.2.1 重要的垃圾收集数据 78
    4.2.2 垃圾收集报告 78
    4.2.3 垃圾收集数据的离线分析 86
    4.2.4 图形化工具 89
    4.3 JIT编译器 103
    4.4 类加载 104
    4.5 Java应用监控 106
    4.6 参考资料 109

    第5章 Java应用性能分析 110
    5.1 术语 111
    5.1.1 通用性能分析术语 111
    5.1.2 Oracle Solaris Studio Performance Analyzer术语 112
    5.1.3 NetBeans Profiler术语 112
    5.2 Oracle Solaris Studio Performance Analyzer 112
    5.2.1 支持平台 113
    5.2.2 下载/安装Oracle Solaris Studio Performance Analyzer 114
    5.2.3 使用Oracle Solaris Studio Performance Analyzer 抓取性能数据 114
    5.2.4 查看性能数据 118
    5.2.5 数据表示 125
    5.2.6 过滤性能数据 128
    5.2.7 命令行工具er_print 129
    5.3 NetBeans Profiler 135
    5.3.1 支持平台 136
    5.3.2 下载安装NetBeans Profiler 136
    5.3.3 开始方法分析会话 137
    5.3.4 Controls子面板 143
    5.3.5 Status子面板 143
    5.3.6 Profiling Results子面板 143
    5.3.7 Saved Snapshots子面板 144
    5.3.8 View子面板 144
    5.3.9 Basic Telemetry子面板 144
    5.3.10 查看动态结果 145
    5.3.11 对结果进行快照 145
    5.3.12 启动内存分析会话 146
    5.3.13 查看实时结果 148
    5.3.14 对结果进行快照 150
    5.3.15 定位内存泄漏 150
    5.3.16 分析堆转储 151
    5.4 参考资料 152

    第6章 Java应用性能分析技巧 153
    6.1 性能优化机会 153
    6.2 系统或内核态CPU使用 154
    6.3 锁竞争 161
    6.4 Volatile的使用 171
    6.5 调整数据结构的大小 172
    6.5.1 StringBuilder或StringBuffer大小的调整 172
    6.5.2 Java Collection类大小调整 175
    6.6 增加并行性 179
    6.7 过高的CPU使用率 181
    6.8 其他有用的分析提示 182
    6.9 参考资料 184

    第7章 JVM性能调优入门 185
    7.1 方法 185
    7.1.1 假设条件 187
    7.1.2 测试基础设施需求 188
    7.2 应用程序的系统需求 188
    7.2.1 可用性 188
    7.2.2 可管理性 188
    7.2.3 吞吐量 189
    7.2.4 延迟及响应性 189
    7.2.5 内存占用 189
    7.2.6 启动时间 189
    7.3 对系统需求分级 190
    7.4 选择JVM部署模式 190
    7.4.1 单JVM部署模式 190
    7.4.2 多JVM部署模式 190
    7.4.3 通用建议 191
    7.5 选择JVM运行模式 191
    7.5.1 Client模式或Server模式 191
    7.5.2 32位/64位 JVM 192
    7.5.3 垃圾收集器 192
    7.6 垃圾收集调优基础 193
    7.6.1 性能属性 193
    7.6.2 原则 193
    7.6.3 命令行选项及GC日志 194
    7.7 确定内存占用 197
    7.7.1 约束 197
    7.7.2 HotSpot VM堆的布局 197
    7.7.3 堆大小调优着眼点 200
    7.7.4 计算活跃数据大小 201
    7.7.5 初始堆空间大小配置 202
    7.7.6 其他考量因素 203
    7.8 调优延迟/响应性 204
    7.8.1 输入 205
    7.8.2 优化新生代的大小 205
    7.8.3 优化老年代的大小 207
    7.8.4 为CMS调优延迟 210
    7.8.5 Survivor空间介绍 212
    7.8.6 解析晋升阈值 214
    7.8.7 监控晋升阈值 215
    7.8.8 调整Survivor空间的容量 216
    7.8.9 显式的垃圾收集 222
    7.8.10 并发**代垃圾收集 223
    7.8.11 调优CMS停顿时间 224
    7.8.12 下一步 225
    7.9 应用程序吞吐量调优 225
    7.9.1 CMS吞吐量调优 225
    7.9.2 Throughput收集器调优 226
    7.9.3 Survivor空间调优 228
    7.9.4 调优并行垃圾收集线程 231
    7.9.5 在NUMA系统上部署 231
    7.9.6 下一步 232
    7.10 **示例 232
    7.11 其他性能命令行选项 232
    7.11.1 实验性(*近*大)优化 232
    7.11.2 逃逸分析 233
    7.11.3 偏向锁 233
    7.11.4 大页面支持 234
    7.12 参考资料 236

    第8章 Java应用的基准测试 237
    8.1 基准测试所面临的挑战 237
    8.1.1 基准测试的预热阶段 238
    8.1.2 垃圾收集 240
    8.1.3 使用Java Time接口 240
    8.1.4 剔除无效代码 241
    8.1.5 内联 247
    8.1.6 逆优化 251
    8.1.7 创建微基准测试的注意事项 256
    8.2 实验设计 257
    8.3 使用统计方法 258
    8.3.1 计算均值 258
    8.3.2 计算标准差 258
    8.3.3 计算置信区间 259
    8.3.4 使用假设测试 260
    8.3.5 使用统计方法的注意事项 262
    8.4 参考文献 263
    8.5 参考资料 263

    第9章 多层应用的基准测试 264
    9.1 基准测试难题 264
    9.2 企业级应用基准测试的考量 266
    9.2.1 定义被测系统 266
    9.2.2 制定微基准测试 266
    9.2.3 定义用户交互模型 267
    9.2.4 定义性能指标 270
    9.2.5 扩展基准测试 273
    9.2.6 用利特尔法则验证 274
    9.2.7 思考时间 275
    9.2.8 扩展性分析 278
    9.2.9 运行基准测试 278
    9.3 应用服务器监控 281
    9.3.1 GlassFish监控 281
    9.3.2 监控子系统 286
    9.3.3 Solaris 287
    9.3.4 Linux 288
    9.3.5 Windows 288
    9.3.6 外部系统的性能 289
    9.3.7 磁盘I/O 292
    9.3.8 监控和调优资源池 293
    9.4 企业级应用性能分析 294
    9.5 参考资料 295

    **0章 Web应用的性能调优 297
    10.1 Web应用的基准测试 298
    10.2 Web容器的组件 298
    10.2.1 HTTP连接器 299
    10.2.2 Servlet引擎 300
    10.3 Web容器的监控和性能调优 300
    10.3.1 容器的开发和生产模式 300
    10.3.2 安全管理器 301
    10.3.3 JVM调优 301
    10.3.4 HTTP服务和Web容器 303
    10.3.5 HTTP监听器 303
    10.4 *佳实践 315
    10.4.1 Servlet和JSP*佳实践 315
    10.4.2 内容缓存 324
    10.4.3 会话持久化 328
    10.4.4 HTTP服务器文件缓存 329
    10.5 参考资料 333

    **1章 Web Service的性能 334
    11.1 XML的性能 334
    11.1.1 XML处理的生命周期 335
    11.1.2 解析/解编组 335
    11.1.3 访问 338
    11.1.4 修改 338
    11.1.5 序列化/编组 339
    11.2 验证 339
    11.3 解析外部实体 341
    11.4 XML文档的局部处理 343
    11.5 选择合适的API 346
    11.6 JAX-WS参考实现栈 349
    11.7 Web Service基准测试 350
    11.8 影响Web Service性能的因素 353
    11.8.1 消息大小的影响 353
    11.8.2 不同Schema类型的性能特征 355
    11.8.3 终端服务器的实现 358
    11.8.4 处理程序的性能 359
    11.9 *佳性能实践 361
    11.9.1 二进制负载的处理 361
    11.9.2 处理XML文档 365
    11.9.3 使用MTOM发送XML文档 365
    11.9.4 使用Provider接口 368
    11.9.5 快速信息集 370
    11.9.6 HTTP压缩 372
    11.9.7 Web Service客户端的性能 373
    11.10 参考资料 374

    **2章 Java持久化及Enterprise Java Bean的性能 375
    12.1 EJB编程模型 376
    12.2 Java持久化API及其参考实现 376
    12.3 监控及调优EJB容器 379
    12.3.1 线程池 380
    12.3.2 Bean池和缓存 382
    12.3.3 EclipseLink会话缓存 385
    12.4 事务隔离级 386
    12.5 Enterprise Java Bean的*佳实践 387
    12.5.1 简要说明使用的EJB基准测试 387
    12.5.2 EJB 2.1 388
    12.5.3 EJB 3.0 400
    12.6 Java持久化*佳实践 403
    12.6.1 JPA查询语言中的查询 403
    12.6.2 查询结果缓存 405
    12.6.3 FetchType 406
    12.6.4 连接池 408
    12.6.5 批量*新 409
    12.6.6 选择正确的数据库锁策略 411
    12.6.7 不带事务的读取 411
    12.6.8 继承 411
    12.7 参考资料 412

    附录A 重要的HotSpot VM选项 413
    附录B 性能分析技巧示例源代码 429
    B.1 锁竞争实现1 429
    B.2 锁竞争实现2 439
    B.3 锁竞争实现3 449
    B.4 锁竞争实现4 459
    B.5 锁竞争实现5 469
    B.6 调整容量变化1 481
    B.7 调整容量变化2 492
    B.8 增加并发性的单线程实现 504
    B.9 增加并发性的多线程实现 514
  • 编辑推荐语
  • 内容提要
  • 目录