ncnn tensorrt

ncnn:

已实现 winograd 卷积加速,int8 压缩和推断,还有基于 vulkan 的 gpu 推断

同时也支持将Caffe模型转化为int8精度。

而ONNX模型的转化则是近半年来的实现成果,目前支持了大部分的运算(经过测试,我们平常使用的90%的模型都可以使用ONNX-TensorRT来进行转化)。唯一遗憾的是ONNX模型目前还不支持int8类型的转化。

发布了2718 篇原创文章 · 获赞 1004 · 访问量 536万+

猜你喜欢

转载自blog.csdn.net/jacke121/article/details/104751096