我使用mxnet框架训练了一个模型。该模型的推理时间约为9毫秒。该模型主要由卷积层组成,并使用深度可分离卷积。
我想在浏览器中运行该模型。我将模型转换为ONNX格式,然后从
ONNX -> tensorflow -> tensorflow.
tensorflowjs模型的推理时间约为129毫秒。
有什么建议可以提高模型的性能吗?
我也尝试过ONNXJS,但它的bugs似乎仍然很少。
发布于 2019-03-06 02:16:31
重新架构将是一种可能性,因为您正在处理129ms的延迟。您将有时间将图像发送到运行高性能推理服务器的端点(EC2或SageMaker + API Gateway)。
维沙尔
https://stackoverflow.com/questions/55007556
相似问题