Py之onnx:onnx/onnxruntime库的简介、安装、使用方法之详细攻略

Py之onnx:onnx/onnxruntime库的简介、安装、使用方法之详细攻略

目录

onnx/onnxruntime库的简介

onnx/onnxruntime库的安装

onnx/onnxruntime库的使用方法

1、基础用法


onnx/onnxruntime库的简介

         Open Neural Network Exchange(ONNX)是一个开放的生态系统,赋予AI开发者选择正确工具的能力,以满足项目的不断发展。ONNX为AI模型提供了开源格式,涵盖深度学习和传统ML。它定义了一个可扩展的计算图模型,以及内置运算符和标准数据类型的定义。目前,我们专注于推理(评分)所需的功能。
         ONNX被广泛支持,并可在许多框架、工具和硬件中找到。在不同框架之间实现互操作性并简化从研究到生产的路径,有助于增加AI社区的创新速度。我们邀请社区加入我们,并进一步发展ONNX。

GitHub地址GitHub - onnx/onnx: Open standard for machine learning interoperability

onnx/onnxruntime库的安装


pip install onnx

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple onnx

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple onnxruntime

onnx/onnxruntime库的使用方法

1、基础用法

import onnx
import onnxruntime as ort

# 加载ONNX模型
model = onnx.load("model.onnx")

# 打印模型信息
print(onnx.helper.printable_graph(model.graph))

# 创建ONNX运行时
ort_session = ort.InferenceSession("model.onnx")

# 准备输入数据
input_data = np.random.rand(1, 3, 224, 224).astype(np.float32)

# 推理
ort_inputs = {ort_session.get_inputs()[0].name: input_data}
ort_outputs = ort_session.run(None, ort_inputs)

# 输出结果
print(ort_outputs)

猜你喜欢

转载自blog.csdn.net/qq_41185868/article/details/130652656