我正在编写一个服务器应用程序,它应该服务于大量的请求。我试着做了一些测试,发现我对服务器吞吐量有一些限制。我目前的猜测是TCP处理中的瓶颈。
我的问题是:我如何证实或反驳我的猜测?我应该看哪些指标,哪些值可以作为线索?我也会感谢任何关于使用工具的建议。
服务器的操作系统是Linux。我的应用程序是用Java编写的。请随时在评论中询问更多信息。
另外,我真的不确定这个问题应该贴在哪里。是否应该将其移动到serverfault?
UPD:它是一种http服务,当前吞吐量约为450请求/秒,平均响应大小约为20KB。请注意,对于每个客户端请求,它向mongodb发出6-8个请求,向memcached发出一个请求。
UPD2:我忘记了一个非常重要的点:网络接口没有得到充分利用,它只使用了1 1Gb中的80-100Mb。应用程序服务器和数据库上的CPU和内存也未加载。
发布于 2011-05-17 23:14:40
如果您还没有,我建议您在服务器应用程序上实现一些日志记录。应用程序应该至少打印以下统计数据:
客户端时间开始时间(请求的第一个字节received)
所用的时间
这将帮助您确定瓶颈是TCP开销还是您的应用程序。如果您想要一个快速而粗糙的视图,您可以使用WireShark来查看特定事务的最后一个请求包传入和第一个响应包传出之间的时间。但是,使用WireShark手动测量许多事务将是困难的,从长远来看,拥有良好的日志记录可能会对您有所帮助。
祝好运!
https://stackoverflow.com/questions/6032671
复制相似问题