Jetson 把玩记 二、TensorRT 环境搭建

NVIDIA TensorRT™是一个高性能深度学习推理平台。它包括深度学习推理优化器和运行时,可为深度学习推理应用程序提供低延迟和高吞吐量。在推理期间,基于TensorRT的应用程序比仅CPU平台的执行速度快40倍。使用TensorRT,您可以优化在所有主要框架中培训的神经网络模型,以高精度校准低精度,最后部署到超大规模数据中心,嵌入式或汽车产品平台。

         TensorRT构建于NVIDIA的并行编程模型CUDA之上,使您能够利用CUDA-X AI中的库,开发工具和技术,为人工智能,自动机器,高性能计算和图形优化所有深度学习框架的推理。

         TensorRT为深度学习推理应用的生产部署提供INT8和FP16优化,例如视频流,语音识别,推荐和自然语言处理。降低精度推断可显着减少应用程序延迟,这是许多实时服务,自动和嵌入式应用程序的要求。

image.png

         您可以将训练有素的模型从每个深度学习框架导入TensorRT。应用优化后,TensorRT选择特定于平台的内核,以最大限度地提高数据中心,Jetson嵌入式平台和NVIDIA DRIVE自动驾驶平台中Tesla GPU的性能。

         为了在数据中心生产中使用AI模型,TensorRT推理服务器是一种容器化微服务,可最大化GPU利用率,并在节点上同时运行来自不同框架的多个模型。它利用Docker和Kubernetes无缝集成到DevOps架构中。

         使用TensorRT,开发人员可以专注于创建新颖的AI驱动的应用程序,而不是用于推理部署的性能调整。

一、更新源,安装依赖

sudo apt-get update
sudo apt-get install git cmake libpython3-dev python3-numpy

二、克隆jetson-inference 库

git clone https://github.com/dusty-nv/jetson-inference
cd jetson-inference
git submodule update --init 

三、开始编译

mkdir build
cd build
cmake ../     #本步骤过程中会下载很多库和模型,国内网络很慢或无法下载,请挂科学。
make -j4

四、编译完成后,会在当前目录下的的aarch64内生成应用程序、库和头文件

cd aarch64/bin
./camera-capture /dev/video0  #打开USB摄像头预览测试
./detectnet /dev/video0 #打开USB摄像头进行实时探测

五、安装到系统目录(可选)

sudo make install
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/lib

六、下载更多模型,在jetson-inference/build目录下

./download-models.sh

有科学上网才能顺利下载。

原创文章,转载请注明: 转载自贝壳博客

本文链接地址: Jetson 把玩记 二、TensorRT 环境搭建

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理