如何配置TensorFlow服务以使用存储在DigitalOcean空间中的文件?
重要的是解决方案:
我已经在your_bucket_name空间中配置了一个名为DigitalOcean的桶,其结构如下:
- your_bucket_name
- config
- batching_parameters.txt
- monitoring_config.txt
- models.config
- models
- model_1
- version_1.1
- variables
- variables.data-00000-of-00001
- variables.index
- saved_model.pb
- model_2
- ...
- model_3
- ...发布于 2020-02-04 06:34:51
编辑:自TensorFlow 2.6以来,S3支持已被废弃,Docker映像也不再支持存储在S3 [参考文献]上的模型。( @RonaldDas.)
历史记录:TensorFlow服务支持与亚马逊S3存储桶的集成。由于DigitalOcean空间提供了类似的接口,因此可以通过Docker轻松地通过S3接口运行带有DigitalOcean空间的S3服务。
为了让其他人更容易,我详细介绍了您需要了解的关于运行以下服务器的所有信息:
1.环境变量(可选)
在您的环境中定义以下变量:
AWS_ACCESS_KEY_ID=...
AWS_SECRET_ACCESS_KEY=...(这并不是绝对必要的,但定义这些变量比将值硬编码到您的坞-撰写文件中更安全。)
您可以从DigitalOcean空间接收这些变量的值,作为配置云存储桶的一部分。
2.服务器
您可以使用Docker或docker-组合启动服务器:
2.1。使用码头
下面是从命令提示符启动服务器的一个最小的docker命令:
docker run \
-p 8500:8500 \
-p 8501:8501 \
-e AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID} \
-e AWS_REGION=nyc3 \
-e AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY} \
-e S3_ENDPOINT=nyc3.digitaloceanspaces.com \
tensorflow/serving \
--model_config_file=s3://your_bucket_name/config/models.config(要在Windows上运行此命令,您可能需要删除回拨换行符,使其成为单行命令。)
2.2。使用船坞组合
这种停靠组合配置在服务器配置方式上要详细一些,但是您也可以通过简单的docker命令使用这些选项。
version: "3"
services:
tensorflow-servings:
image: tensorflow/serving:latest
ports:
- 8500:8500
- 8501:8501
command:
- --batching_parameters_file=s3://your_bucket_name/config/batching_parameters.txt
- --enable_batching=true
- --model_config_file=s3://your_bucket_name/config/only_toxic.config
- --model_config_file_poll_wait_seconds=300
- --monitoring_config_file=s3://your_bucket_name/config/monitoring_config.txt
- --rest_api_timeout_in_ms=30000
environment:
- AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID}
- AWS_LOG_LEVEL=3
- AWS_REGION=nyc3
- AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY}
- S3_ENDPOINT=nyc3.digitaloceanspaces.com这里减少了日志级别,因为这里有很多“释放的连接”和“没有响应体”的消息,这些消息都不是实际的错误。(有关更多细节,请参见GitHub问题: AWS在使用S3时是冗长的。)
3.配置文件:
配置文件如下所示,它们是协议缓冲区:
3.1。models.config
model_config_list {
config {
name: 'model_1'
base_path: 's3://your_bucket_name/models/model_1/'
model_platform: "tensorflow"
},
config {
...
},
config {
...
}
}3.2。batching_parameters.txt (可选)
该文件定义了TensorFlow服务的指导方针;指导它在服务器中处理批处理的方式。
max_batch_size { value: 1024 }
batch_timeout_micros { value: 100 }
num_batch_threads { value: 4 }
pad_variable_length_inputs: true3.3。monitoring_config.txt (可选)
该文件通过以下定义的端点提供各种统计信息。
prometheus_config {
enable: true,
path: "/monitoring/metrics"
}https://stackoverflow.com/questions/60051823
复制相似问题