我有一个应用程序,它将处理通过高容量,低开销从不同的互联网设备发送的硬件设备接收的数据。随着越来越多的设备被添加到系统中,这些数据将不断地被接收,并且只会在将来增加。一旦接收到数据,经过一些小处理后,它将被插入到数据库(MySQL)中。
我的问题是,我应该为此使用什么样的服务器软件?node.js是在给定硬件约束范围内处理此类请求的最大数量的最佳候选方,还是nginx更适合这样的应用程序?此外,是否有处理此类请求的最佳做法?例如,我读到,如果我使用node.js,我可能需要查看操作系统的u限度,以确保在大量并发请求的情况下可以创建足够的文件.
谢谢。
发布于 2014-07-04 06:31:28
至少新的遗物说,这个java是最好的:
主要的新文物web应用程序一直是Rails应用程序。数据收集层最初是用Ruby编写的,但最终被移植到了Java中。此更改的主要驱动因素是性能。该层目前支持每分钟180 k以上的请求,响应时间约为2.5毫秒,还有足够的空间。
来自http://highscalability.com/blog/2011/7/18/new-relic-architecture-collecting-20-billion-metrics-a-day.html
https://serverfault.com/questions/610086
复制相似问题