tx2 6

Yolov5의 model을 Tx2 engine을 만들어봅시다 (Onnx, netron)

안녕하세요 Yolov5는 pytorch 기반의, 객체 검출을 쉽게 해 줄수 있는 프레임워크입니다. 하지만 yolov5에서 만든 모델을 다른곳에서 사용하려면, 그에 맞게 모델을 변환시켜 주어야 합니다. 그럴때 사용할 수 있는 기술이 Onnx 입니다. onnx소개 : https://github.com/onnx/onnx, https://www.megazone.com/techblog_180816_aws-deep-learning-amis/#:~:text=ONNX%20%EB%9E%80%20%EB%AC%B4%EC%97%87%EC%9D%B8%EA%B0%80%3F,%EC%97%B0%EC%82%B0%EC%9E%90%20%EB%AA%A9%EB%A1%9D%EC%9D%84%20%EC%A0%95%EC%9D%98%ED%95%A9%..

Nvidia Tx2에다가 yolov5 실행하기

yolov5는 PC(특히 Ubuntu)에서 굉장히 inference하기 쉬운 형태 입니다. GPU쓰는 방법만 알아낸다면, 말 그대로 github repository를 clone하고 실행하면 됩니다. 하지만 Tx2에서는 되지 않았습니다. 처음에는 Numpy 에러가 생기고, Illegal instruction (core dumped) 처음에는 numpy 타입이 1.19.5여서 1.19.4로 downgrade도 해보고, 그 와중에 pip install을 하는 와중에 compile하는 시간도 많이 걸리고, compile 하고 시스템 파일들이 저장공간에 많이 쌓여서 저장공간 부족도 생겼었습니다. 엄청난 삽질 끝에, Tx2 CPU의 ARRCH CPU type 때문에 torch와 torchvision을 다시 comp..

Tx2 에서 안쓰는 CPU코어 사용하기 (JTOP, nvpmodel 사용)

출처 : forums.developer.nvidia.com/t/cannot-enable-denver-cores-for-tx2-jetpack-4-4-dp/124708/38 Tx2를 사용하다 보면 jtop을 사용할 수 있는데, jtop이란, pc 의 상태를 확인하게 해 주는 것이고, 이 command로 설치가 가능합니다. $ sudo -H pip install -U jetson-stats 6개의 cpu중에 2개를 사용하지 않는 것을 확인할 수 있습니다. Jetson에서는 CPU의 전력제한을 풀어주는 모드가 있는데, 이를 조절하는 옵션을 nvpmodel 이라 하고, 다음과 같은 커맨드로 바꿀 수 있습니다. $ sudo nvpmodel -m 0 # 0번 모드로 설정 $ sudo nvpmodel -q –verbo..

Tx2에 vscode 설치법

구글에 install vscode on jetson tx2 라고 검색하면 여러가지 방법이 나온다. 그중에 가장 쉬운 건 www.jetsonhacks.com/2019/10/01/jetson-nano-visual-studio-code-python/ Jetson Nano - Visual Studio Code + Python - JetsonHacks Visual Studio Code is one of the most popular IDEs in the world. You can install VSCode on the Jetson Nano in just a few minutes! www.jetsonhacks.com 이 링크고, 세 줄이면 끝난다. $ git clone https://github.com/Jetson..

TLT(Transfer Learning Toolkit) Install하기 - for Jetson Tx2

말은 Jetson을 위해서 이지만 사실 Jetson에다가 하는 것은 아니다. docker파일 위에서 돌아가야 하는 것이기 때문에, 그리고 learning 자체를 해야되는것이기 때문에, 엄청나게 강력한 머신이 필요하다. 절대 Tx2위에서 돌리려고 하지말것... 용량도 안된다.. Minimum requirement 와 recommended requirement 는 다음과 같다. 그리고 Docker위에서 돌아가고, 다음과 같은 prerequisite들이 필요하다. Nvidia GPU CLoud account and API key같은 경우 그냥 가서 등록하면 되고, docker-ce 같은 경우 docker 홈페이지 들어가서 시키는 대로 하면 된다. docs.docker.com/engine/install/ubun..