jetson-inference:Hello AI World指南,介绍如何使用TensorRT和NVIDIA Jetson部署深度学习推理网络和深度视觉原语

时间:2024-02-23 23:34:39
【文件属性】:
文件名称:jetson-inference:Hello AI World指南,介绍如何使用TensorRT和NVIDIA Jetson部署深度学习推理网络和深度视觉原语
文件大小:71.25MB
文件格式:ZIP
更新时间:2024-02-23 23:34:39
machine-learning embedded caffe computer-vision deep-learning 部署深度学习 欢迎使用我们的NVIDIA 推理和实时库指导手册。 此使用NVIDIA 将神经网络有效地部署到嵌入式Jetson平台上,通过图形优化,内核融合和FP16 / INT8精度提高了性能和能效。 视力原语,如图像识别, 物体检测,并用于语义分割,继承从共享对象。 提供了一些示例,用于从实时摄影机供稿进行流式处理并处理图像。 有关C ++和Python库的详细参考文档,请参见部分。 遵循教程,在Jetson上运行推理和转移学习,包括收集自己的数据集和训练自己的模型。 它涵盖了图像分类,对象检测和分割。 目录 >回购中现在支持Jetson 和JetPack 4.4.1。 >试试新的对象检测教程! >有关最新更新和新功能,请参阅。 你好AI世界 Hello AI World可以在Jetson上完全运行,包括使用TensorRT进行推理和使用PyTorch进行学习。 Hello AI World的推理部分-包括为Python或C ++编写自己的图像分类和对象检测应用程序代码,以及实时相机演示-可以在您的Jetson上运行大约两小时或更短的时间,而迁移学习最好离开过夜。 系统设置

网友评论

  • jetson官方自己的git资源,直接去git下载就行,https://github.com/dusty-nv/jetson-inference