Triton Server——Model Serving
Triton Server官方文档可以参考,https://github.com/triton-inference-server/server/blob/main/docs/quickstart.md
其支持的模型种类,参考,https://github.com/triton-inference-server/server/blob/main/docs/model_repository.md#model-files
triton要求使用torchscript(可以认为是tensorflow v1),而非eager,参考,https://pytorch.org/tutorials/beginner/Intro_to_TorchScript_tutorial.html,因此在存储模型的时候要注意一下
每个模型需要一个配置文件来描述其输入输出:配置文件config.pbtxt的参考文档,https://github.com/triton-inference-server/server/blob/main/docs/model_configuration.md
config.pbtxt的一个简单示例:
1 |
|
模型结构假设为
1 |
|
训练好模型之后,通过python代码将模型与配置文件都存储到S3中
1 |
|
之后通过triton server连接S3访问模型文件夹,先试试docker
1 |
|
Docker上没问题后,使用seldon core部署triton server到k8s集群中:
1 |
|
部署完成后,验证
1 |
|
输出为
1 |
|
验证模型推断
1 |
|
模型输出为
1 |
|
Triton Server——Model Serving
https://fffffaraway.github.io/2022/06/19/triton-server/