最新!Win10 + VS 编译支持tensorRT的libpaddle

时间:2024-04-12 13:02:12

参考的官网文档:
https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/windows_cpp_inference.html

1 准备工作

(1)安装VS2015 + update3
注意一定要装这个版本,要update3!不要装VS2017\VS2019等高版本,不然,哈哈,你可以自己尝试一下其中的滋味。。。

地址:
http://download.microsoft.com/download/7/c/f/7cf151c3-b735-4e35-a1bb-9a48224f4a95/vs2015.3.ent_chs.iso

(2)安装cuda10.0 + cudnn 7.6
这个就不说了,编译支持cuda和tensorRT的libpaddle必备的,安装教程网上一大堆

(3)git clone paddle源码
这里最好用稳定版,我选的paddle1.7
https://github.com/PaddlePaddle/Paddle/tree/release/1.7

(4)安装cmake
这个很简单就不多说了

(5)tensorRT
这个就直接去NVIDIA官网下载就行了,和cudnn一样需要注册

2 开始编译

(1)paddle源码目录创建一个build文件夹
最新!Win10 + VS2015 编译支持tensorRT的libpaddle
(2)cd 到build目录执行下面代码
cmake … -G “Visual Studio 14 2015” -A x64 -T host=x64
-DCMAKE_BUILD_TYPE=Release
-DWITH_MKL=ON
-DWITH_GPU=ON
-DON_INFER=ON -DWITH_PYTHON=OFF
-DCUDA_TOOKIT_ROOT_DIR=""
-DTENSORRT_ROOT=""

DCUDA_TOOKIT_ROOT_DIR填你cuda目录
DTENSORRT_ROOT填你tensorRT目录

(3)config和generating done后用VS2015打开paddle.sln
最新!Win10 + VS2015 编译支持tensorRT的libpaddle
最新!Win10 + VS2015 编译支持tensorRT的libpaddle
(4)然后build,先build third_party
最新!Win10 + VS2015 编译支持tensorRT的libpaddle
build过程中要下载源码,注意网络畅通,否则会失败

(5)上面成功后build inference_lib_dist
最新!Win10 + VS2015 编译支持tensorRT的libpaddle
经过了一段时间后build成功了
最新!Win10 + VS2015 编译支持tensorRT的libpaddle
(6)查看生成的库
这个是inference库
最新!Win10 + VS2015 编译支持tensorRT的libpaddle
而这个是c语言版的lib
最新!Win10 + VS2015 编译支持tensorRT的libpaddle
查看version.txt
最新!Win10 + VS2015 编译支持tensorRT的libpaddle
有tensorRT

以上です