我是particle.io的忠实粉丝,当他们添加( GCP )集成时,我非常兴奋,这样我就可以将我的IoT数据保存到GCP "DataStore“中。
我已经遵循了他们的教程,并使它发挥作用,但我需要一些关于实现这一点的建议,以便它可以扩展到GCP上。
我当前的实现如下:https://docs.particle.io/tutorials/integrations/google-cloud-platform/#example-use-cases
基本上,我有一个GCP "Compute“实例,它运行一个node.js脚本,该脚本侦听PubSub事件(由我的IoT设备发送)并将其保存到DataStore。
现在,因为我希望它能够扩展,所以理想情况下,这个node.js脚本应该运行在一个能够自动响应尖峰的托管服务上。但GCP似乎没有类似的情况。
在AWS中,我可以这样做: IoT Data -> Particle.io AWS WebHook -> AWS网关端点-> AWS Lambda -> AWS DynamoDB
所有AWS点都被管理。
--在GCP上让node.js脚本始终以一种完全管理的、始终可用的方式运行的最好方法是什么?它可以运行我的node.js脚本,该脚本侦听PubSub事件并保存到DataStore中,并在负载增加时自动缩放。
如有任何帮助/建议,将不胜感激。
非常感谢,马克
发布于 2017-02-06 12:07:29
你有很多选择:
1-正如其他人所提到的,有云函数。它基本上是一个您部署的Node.js函数,Google负责将它向上/向下扩展。
2-您可以将您的Node.js应用程序部署到app,它默认启用自动标号。
3-如果您想继续使用Compute Engine,可以手动在Compute Engine上设置自动标度。
https://stackoverflow.com/questions/42061412
复制相似问题