⚠️ 通知:维护有限
本项目不再积极维护。现有版本仍可使用,但没有计划中的更新、错误修复、新功能或安全补丁。用户应注意,潜在漏洞可能不会得到解决。
工作流推理 API¶
工作流推理 API 默认在端口 8080 上侦听,并且仅可从 localhost 访问。要更改默认设置,请参阅 TorchServe 配置。
TorchServe 服务器支持以下 API
预测 API - 从已提供服务的模型获取预测结果
预测 API¶
要从工作流获取预测结果,请向 /wfpredict/{workflow_name}
发起 REST 调用
POST /wfpredict/{workflow_name}
curl 示例¶
curl -O https://raw.githubusercontent.com/pytorch/serve/master/docs/images/kitten_small.jpg
curl http://localhost:8080/wfpredict/myworkflow -T kitten_small.jpg
结果是一个 JSON 对象,返回工作流 DAG 叶节点的响应字节。