Machine Learning

Regularization과 Normalization

jinmc 2021. 9. 3. 16:43
반응형

Machine Learning에서 Regularization과 normalization이라는 개념이 있는데, 

둘다 정규화라고도 해석이 가능합니다.

 

네이버에 검색해보니,

Regularization - 조직화, 규칙화

Normalization - 표준화, 정상화

라고 나오는군요.

 

하지만 많은 사람들이 Regularization과 normalization을 둘 다 정규화라고 사용하는 듯 합니다.

Machine Learning에서 이 둘은 뜻이 완전히 다른데요,

Normalization은 사실 Machine Learning뿐만 아니라 다른 개념에서도 사용되는 개념이기도 합니다.

수학에서도 사용하고, Database에서의 Normalization의 경우에는 테이블간의 서로 겹치는 정보를 배제한다는 의미로 사용하기도 합니다. 

 

Machine Learning에서의 Normalization 은 데이터 간의 유닛을 맞춰 주는 의미로 해석됩니다.

Mean Normalization은 평균값으로 빼주고, (최대값 - 최소값)으로 나눠줌으로써 

평균을 0으로 맞춰주고 값을 1에서 -1 사이로 맞춰줍니다.

다른 말로는 feature scaling이라고도 합니다.

 

반면에 regularization 은, overfitting을 방지하는 방법 중 하나로 나옵니다.

우리가 잘 아는 linear regression 이나 logistic regression을 사용할 때, 

 

람다를 regularization parameter로 잡습니다.

 

regularization은 overfitting을 잡는 주요 도구중 하나지만, 

너무 크면 학습을 방해할 수 있기 때문에 남용하는 것은 좋지 않습니다!

 

개인적인 생각으로 normaliztion을 정규화라고 부르고,

regularization을 조직화 등으로 바꿔 말하는 것이 좋다고 생각됩니다.

반응형