工作流推理 API¶
工作流推理 API 在端口 8080 上监听,默认情况下仅从 localhost 可访问。 要更改默认设置,请参见 TorchServe 配置.
TorchServe 服务器支持以下 API
预测 API - 从已提供服务的模型获取预测
预测 API¶
要从工作流获取预测,请对 /wfpredict/{workflow_name}
进行 REST 调用。
POST /wfpredict/{workflow_name}
curl 示例¶
curl -O https://raw.githubusercontent.com/pytorch/serve/master/docs/images/kitten_small.jpg
curl http://localhost:8080/wfpredict/myworkflow -T kitten_small.jpg
结果是 JSON 对象,返回工作流 DAG 叶节点的响应字节。