ONNX-Runtime (Ort) 部署库基类 [7]
更多...
#include <rmvl/ml/ort.h>
ONNX-Runtime (Ort) 部署库基类 [7]
◆ OnnxNet()
rm::OnnxNet::OnnxNet |
( |
std::string_view | model_path, |
|
|
OrtProvider | prov ) |
创建 OnnxNet 对象
- 参数
-
[in] | model_path | 模型路径,如果该路径不存在,则程序将因错误而退出 |
[in] | prov | Ort 提供者 |
◆ inference()
推理
- 参数
-
[in] | images | 所有输入图像 |
[in] | preop | 预处理选项,不同网络有不同的预处理选项 |
[in] | postop | 后处理选项,不同网络有不同的后处理选项 |
- 返回
- 使用
std::any
表示的所有推理结果,需要根据具体的网络进行解析
- 注解
- 可使用
<class-type>::cast
函数对返回类型进行转换
◆ postProcess()
virtual std::any rm::OnnxNet::postProcess |
( |
const std::vector< Ort::Value > & | output_tensors, |
|
|
const PostprocessOptions & | postop ) |
|
privatepure virtual |
后处理
- 参数
-
[in] | output_tensors | 模型的输出 Tensors |
[in] | postop | 后处理选项,不同网络有不同的后处理选项 |
- 返回
- 使用
std::any
表示的所有推理结果,需要根据具体的网络进行解析
在 rm::ClassificationNet 内被实现.
◆ preProcess()
virtual std::vector< Ort::Value > rm::OnnxNet::preProcess |
( |
const std::vector< cv::Mat > & | images, |
|
|
const PreprocessOptions & | preop ) |
|
privatepure virtual |
◆ printEnvInfo()
static void rm::OnnxNet::printEnvInfo |
( |
| ) |
|
|
staticnoexcept |
◆ printModelInfo()
void rm::OnnxNet::printModelInfo |
( |
| ) |
|
|
noexcept |
◆ _env
Ort::Env rm::OnnxNet::_env |
|
protected |
◆ _inames
std::vector<const char *> rm::OnnxNet::_inames |
|
protected |
◆ _memory_info
Ort::MemoryInfo rm::OnnxNet::_memory_info |
|
protected |
◆ _onames
std::vector<const char *> rm::OnnxNet::_onames |
|
protected |
◆ _session
std::unique_ptr<Ort::Session> rm::OnnxNet::_session |
|
protected |
◆ _session_options
Ort::SessionOptions rm::OnnxNet::_session_options |
|
protected |
该类的文档由以下文件生成: