NVIDIA TAO Object Detection Yolov4와 deepstream 배포 관련 질문

NVIDIA TAO Object Detection Yolov4와 deepstream 배포 관련 질문

작성일 2022.06.12댓글 1건
    게시물 수정 , 삭제는 로그인 필요

DGX A100에서 NVIDIA TAO ObjectDetection Yolov4로 학습하고 export 한 etlt모델을 
NVIDIA Xavier NX 에서 deepstream으로 추론을 돌리고싶은데 fasterRCNN이나 DetectNetv2는 NX에서 tao-converter를 이용해 etlt모델을 TensorRT 엔진파일로 빌드가 정상적으로 잘 되고 추론도 잘 되는데
 YOLOv4는 tao-converter로 변환을 시도하면 model에 INT64 가중치가 있다고하면서 int32로 clamp한다는 경고문구가 뜨는데 engine파일은 나오긴 나와요 문제는 실제 추론을 해보면 전혀 엉뚱한 결과가 나온다는거죠. 구글링을 해봐도 TensorRT OSS를 세팅하지않았다고밖에 안나오지만 버전에 맞게 모두 다 설정을  끝냈습니다.

경고문은 대략 아래와 같습니다.
[WARNING] onnx2trt_utils.cpp:366: Your ONNX model has been generated with INT64 weights, while TensorRT does not natively support INT64. Attempting to cast down to INT32.
[WARNING] onnx2trt_utils.cpp:392: One or more weights outside the range of INT32 was clamped

학습환경
NVIDIA DGX A100
TAO 를 돌린 도커 이미지 버전 :nvcr.io/nvidia/tao/tao-toolkit-tf:v3.21.11-tf1.15.4-py3

추론환경
NVIDIA Xavier NX
Jetpack 버전 : 4.6.1
deepstream 버전 : 6.0.1
TensorRT OSS  libnvinfer_plugin 빌드 버전 8.0.1


#nvidia tao #nvidia tao toolkit #nvidia tao github #nvidia tao 5.3 #nvidia tao documentation #nvidia tao docker #nvidia tao tutorial #nvidia tao windows #nvidia tao yolov8 #nvidia tao training

profile_image 익명 작성일 -

앗 앤비디아 알려주셔서 감사합니다