걸어서개발한바퀴

  • 홈
  • 태그
  • 방명록

Quantization 1

Pytorch를 이용한 Quantization

Quantization이란 무엇일까요? 딥러닝이라고 하면 보통 여러개의 node들과 이들로 이루어진 layer, 그리고 layer들을 서로 연결하는 activation들로 이루어져 있다고 할 수 있겠습니다. 각각의 Node들은 각자 Weight과 Bias들을 가지고 있으며, activation들은 RELU, softmax, Sigmoid, Tanh, Leaky Relu 등 여러가지가 있다고 볼 수 있을 것입니다. 레퍼런스에 따르면, pytorch 1.3, 그리고 1.4에서 torchvision 0.5에서 지원된다고 합니다. 그럼 Quantization은 왜 하는 걸까요? 위에서 말한 Weight 와 Bias들은 보통 float32로 표현되는데, float32에서 32의 표현은 32비트를 사용한다는 의미입..

Deep Learning 2023.01.25
1
더보기

방문자수Total

  • Today :
  • Yesterday :
프로필사진

개발여행 가 봅시다~

  • 분류 전체보기 (193)
    • Audio Processing (2)
    • 알고리즘 (7)
      • 리트코드 (5)
    • Data Engineering (3)
    • Linux (16)
      • Ubuntu (13)
    • Utils (15)
      • Program (4)
      • Git (6)
    • Machine Learning (30)
      • Device (7)
      • Tensorflow (5)
      • Regression (1)
    • Python (10)
      • Concurrency (4)
      • Basics (3)
    • 환경설정 (11)
    • kaggle 및 dacon (2)
    • Web Programming (18)
      • Server (5)
      • Java Spring (11)
    • Cloud (2)
      • Docker (7)
    • Network (2)
      • protocols (1)
    • Video Processing (5)
      • Gstreamer (2)
    • Image Processing (11)
      • Cv2 (8)
    • Deep Learning (30)
      • NLP (10)
      • Computer Vision (11)
    • 잡담 (2)
    • 모바일 (1)
      • 안드로이드 (10)
      • flutter (2)
    • openai (5)
    • Data Science (2)

Tag

TFlite, CNN, mac, yolo, tensorflow, jetson, tx2, Python, OpenCV, ubuntu, docker, spring boot, GCP, Linux, cv2, yolov5, 도커, image classification, Android, Git,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

Copyright © Kakao Corp. All rights reserved.

티스토리툴바