tf 服务部署两个模型
tf serving deploy two models
我有两个不同的 tensorflow 模型 A 和 B,模型 A 的输出将作为输入送入模型 B。它们都需要使用 tf 服务进行部署。我需要使用 grpc 或 http requet 调用两次以获取模型 B 的输出。
tf serving是否只支持一次grpc或http请求获取model B的输出?
AFAIC,tensorflow 服务不支持管道模式。但我认为您可以将 A 和 B 合并为一个模型。
我有两个不同的 tensorflow 模型 A 和 B,模型 A 的输出将作为输入送入模型 B。它们都需要使用 tf 服务进行部署。我需要使用 grpc 或 http requet 调用两次以获取模型 B 的输出。
tf serving是否只支持一次grpc或http请求获取model B的输出?
AFAIC,tensorflow 服务不支持管道模式。但我认为您可以将 A 和 B 合并为一个模型。