请问有没有类似下面这种的: 整个模型装进一个 docker 里面,然后提供一个 api。传入输入之后会返回一个 json 包含 inference 的结果。
1
jdhao 2019-12-07 09:15:26 +08:00 via Android 1
用 flask 部署,提供一个服务接口,docker 里面接口映射一下即可
|
2
widewing 2019-12-07 09:16:12 +08:00 via Android 1
kubeflow
|
3
jaswer 2019-12-07 10:26:27 +08:00
方案你不是自己都说出来了
|
5
tfdetang 2019-12-07 11:08:04 +08:00
不知道是不是我的错觉。模型用 tensorflow-serving-gpu 部署,同样的配置比本地的实验代码推理速度慢(同样配置)。当然 serving 部署比较方便是真的
|
6
hdbzsgm 2019-12-07 11:10:49 +08:00
seldon/tf serving/kf serving
|