Machine Learning/Device

TLT(Transfer Learning Toolkit) Install하기 - for Jetson Tx2

jinmc 2020. 11. 5. 15:29
반응형

말은 Jetson을 위해서 이지만 사실 Jetson에다가 하는 것은 아니다.

docker파일 위에서 돌아가야 하는 것이기 때문에, 그리고 learning 자체를 해야되는것이기 때문에, 엄청나게 강력한 머신이 필요하다. 

절대 Tx2위에서 돌리려고 하지말것... 용량도 안된다..

 

Minimum requirement 와 recommended requirement 는 다음과 같다.

그리고 Docker위에서 돌아가고, 다음과 같은 prerequisite들이 필요하다.

 

Nvidia GPU CLoud account and API key같은 경우 그냥 가서 등록하면 되고, 

docker-ce 같은 경우 docker 홈페이지 들어가서 시키는 대로 하면 된다.

docs.docker.com/engine/install/ubuntu/

 

Install Docker Engine on Ubuntu

 

docs.docker.com

설치 이후 

 

sudo docker run hello-world

 

로 설치확인을 해 주자.

 

 

Nvidia-docker의 경우 다음 페이지를 참조하면 설치가 가능하다.

docs.nvidia.com/datacenter/cloud-native/container-toolkit/install-guide.html#docker

 

Installation Guide — NVIDIA Cloud Native Technologies documentation

On RHEL 7, install the nvidia-container-toolkit package (and dependencies) after updating the package listing: Restart the Docker daemon to complete the installation after setting the default runtime: Note Depending on how your RHEL 7 system is configured

docs.nvidia.com

 

nvidia-driver 같은 경우 nvidia-smi command 를 사용하면 확인이 가능하다.

모든 게 설치되었다면

docker pull nvcr.io/nvidia/tlt-streamanalytics:v2.0_py3

이 커맨드로 풀 시작! (sudo 해야될수도 있다..)

 

Outdated 될 수 있으니, 정확한 커맨드는 홈페이지 참고할 것!

 

docs.nvidia.com/metropolis/TLT/tlt-getting-started-guide/text/requirements_and_installation.html

 

Requirements and Installation — Transfer Learning Toolkit 2.0 documentation

Use this procedure to run the Transfer Learning Toolkit. Access local directories To access local directories from inside Docker, you need to mount them in Docker. Use the option -v : to mount local directories in docker. For example, the command to run th

docs.nvidia.com

마지막 run 할 때 :

docker run --runtime=nvidia -it nvcr.io/nvidia/tlt-streamanalytics:v2.0_py3 /bin/bash

 

추가 :

혹시라도 docker run이 먹히지 않으면,

sudo systemctl daemon-reload
sudo systemctl restart docker

이걸 해줘서 daemon을 다시 해야 먹힐수도 있음!

반응형